Гугл индексирует запрещенные директории?!

12
L
На сайте с 24.10.2005
Offline
24
#11
wolf:
А вы поглядите на даты кешей этих страниц - наверняка они посещались роботом еще до появления запрещающих директив

Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?

wolf
На сайте с 13.03.2001
Offline
1183
#12

lika,

lika:
Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?

А если взглянуть на вопрос с такой стороны - когда робот делал последнее обращение к документам, это было разрешено. Теперь обращения ему запрещены. Он их не делает. Но это ведь не ставит вне закона те копии документов, которые он собрал без нарушения директив.

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
L
На сайте с 24.10.2005
Offline
24
#13
wolf:
Но это ведь не ставит вне закона те копии документов, которые он собрал без нарушения директив.

Другими словами, все, что попало в кэш Гугля, останется там навсегда?

И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?

wolf
На сайте с 13.03.2001
Offline
1183
#14
lika:
Другими словами, все, что попало в кэш Гугля, останется там навсегда?
И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?

Да нет, думаю не навсегда. Насчет запрещенных robots'ом не скажу, но замечено, что отдающие 404 страницы сидят в Supplement results довольно долго - месяцами.

L
На сайте с 24.10.2005
Offline
24
#15
wolf:
Да нет, думаю не навсегда. Насчет запрещенных robots'ом не скажу, но замечено, что отдающие 404 страницы сидят в Supplement results довольно долго - месяцами.

Отсюда можно сделать вывод, что Гугль и Яндекс следуют директивам файла robots.txt по-разному: Яндекс довольно быстро выкидывает запрещенные для индексации документы из базы, Гугль не индексирует запрещенные документы, но из бызы их не вычищает. Или, лучше сказать, вычищает очень медленно: на это уходят месяцы. Так?

А есть ли способ вручную удалить файлы из базы Гугля?

SS
На сайте с 03.09.2004
Offline
141
#16
wolf:
довольно долго - месяцами

Даже больше года иногда.

«Клянусь своей жизнью и любовью к ней, что никогда не буду жить ради другого человека и никогда не попрошу и не заставлю другого человека жить ради меня» (с) Джон Галт
wolf
На сайте с 13.03.2001
Offline
1183
#17
lika:
А есть ли способ вручную удалить файлы из базы Гугля?

http://www.google.com/intl/ru/webmasters/remove.html

Взгляните на примечание.

and2005
На сайте с 21.05.2005
Offline
164
#18

Alex GT,

Alex GT:
Или я неправильно написал роботс?

User-Agent: *
Disallow: /advbanner
Disallow: /go

Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/

http://www.robotstxt.org/wc/exclusion-admin.html

wolf
На сайте с 13.03.2001
Offline
1183
#19
and2005:
Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/

Так тоже закроется.

K. Ermakov
На сайте с 10.12.2004
Offline
328
#20
and2005:
Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/

Инструкция в файле site.ru/robots.txt

Disallow: /advbanner

запретит индексацию всего, что начинается с /advbanner. Будет запрещено, например:

site.ru/advbanner - каталог

site.ru/advbanner.html - страница

site.ru/advbannerpage2.html - тоже страница

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий