Игнор robots.txt

JK
На сайте с 14.01.2009
Offline
14
475

Почему Гугл игнорирует robots.txt? Прописан запрет на индексацию определённых категорий, но всё-равно страницы попадают в индекс. Просмотрел другие сайты из топа, ситуация аналогична: в robots.txt прописан запрет на индексацию, а страницы в индексе. Вот такой странный и непонятный момент.

И ещё такой вопрос: если страницы уже проиндексированы и уже после индексации в robots.txt прописывать запрет на индексацию, как скоро ненужные страницы вылетят из индекса и вылетят ли вообще?

Спасибо заранее за ответы! :beer:

Talisman13
На сайте с 20.01.2007
Offline
211
#1

Jose Krug, сайт покажите или ту часть robots.txt для гугла.

Jose Krug:
И ещё такой вопрос: если страницы уже проиндексированы и уже после индексации в robots.txt прописывать запрет на индексацию, как скоро ненужные страницы вылетят из индекса и вылетят ли вообще?

Вылетят из индекса, но когда - не знамо.

El_grapaduro
На сайте с 01.09.2008
Offline
315
#2

Видимо роботс неправильно написан, раз гугл игнорирует, поскольку бот при попадании на сайт сначала смотрит роботс, а потом всё что можно.

Боюсь предположить, что сайты у Вас тематики варез и у остальных роботс тоже может быть написан не верно, поскольку все скопировали друг у друга.

Hedden
На сайте с 27.04.2008
Offline
133
#3

А как давно вы обновили роботс? Гугл наверно не успел его заметить.

Привет HostiMan!
dimg
На сайте с 13.04.2008
Offline
144
#4

У меня пока та же ситуация, ненужные страницы держатся в индексе, robots поменял недели полторы назад.

То ТС. Проверить обновил ли google robots у себя, легко из панели вебмастера. Там показывается дата скачивания robots.txt. Там же легко проверяется правильность, вводите url который хотите закрыть и получите результат.

Страницы, скорее всего исключаются из индекса после того как робот попытается на нее зайти.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий