- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, в нем не закрыты страницы, которые нужно закрыть. Я закрыл их в robots, и мне интересно, как быстро они уйдут из индекса. Важен не только Яндекс, но и Google.
в среднем через 2 недели после захода робота
То есть после того, как поисковик снова загрузит robots, страницы сразу из индекса выпадут?
То есть после того, как поисковик снова загрузит robots, страницы сразу из индекса выпадут?
по логике вещей да. т.к. роботс первая вещь куда они смотрят
Я закрыл их в robots, и мне интересно, как быстро они уйдут из индекса. Важен не только Яндекс, но и Google.
Через 1-2 апа, а из гугла могут и не выпасть. А будет
webim, Вы выдумали и посоветовали ТС. Страницы из индекса не выпадут сразу как только ПС снова загрузит robots.
...
собственно можно было просто сказать, если ошибся. Т.к я написал, что это по логике вещей так должно быть (бот загрузил, посмотрел и выкинул с индекса, т.к. выкидывать они любят).
у вас и статья на этот счет смотрю имеется
собственно можно было просто сказать, если ошибся. Т.к я написал, что это по логике вещей так должно быть (бот загрузил, посмотрел и выкинул с индекса, т.к. выкидывать они любят).
у вас и статья на этот счет смотрю имеется
У меня другая логика: индексирует бот какие то страницы сайта с учетом роботса, запрещены они там - не станет в индекс добавлять (или удалит потом из индекса). Но если эти страницы он и не собирался индексировать, то и плевать ему на запись в роботсе. Многие страницы вообще висят месяцами.
Есть вебмастер, загляните туда. Там есть сервис при помощи которого можно проанализировать свой роботс. Если сайт живой и страницы быстро добавляются в индекс, то сразу ваши изменения будут отражаться на роботсе
Я закрыл их в robots, и мне интересно, как быстро они уйдут из индекса.
но и Google.
В Гугле такие старницы не уйдут из индекса, пока вы не удалите такие страницы через ВМТ, или пока вы не откроете их в роботсе снова, а на самих старницах пропишите <meta name="robots" content="noindex" />.
Роботс.тхт запрещает не индексацию ,а сканирование.