Гугл индексирует запрещенные директории?!

12
AG
На сайте с 08.01.2003
Offline
139
1410

У меня возможно дилетантский вопрос, но это проблемка.

У меня файле robots.txt написан запрет для индексации пары папок для баннеров и редиректов.

Почему они появились в индексе гугла????

Или я неправильно написал роботс?

User-Agent: *
Disallow: /advbanner
Disallow: /go

Good Luck
W
На сайте с 07.07.2005
Offline
200
#1

Alex GT, пора подавать иск :d

S
На сайте с 17.10.2003
Offline
332
#2
Почему они появились в индексе гугла????

А что именно появилось в индексе? Кеш есть? Или только урлы? Если урлы, то это обычная картина, а вот если еще и кеширует, то надо смотреть более пристально

Не все ссылки одинаково полезны ( https://www.svift.org/ ). Тут заказываю комментарии и отзывы ( https://qcomment.ru/ref/5651 ) для своих сайтов
AG
На сайте с 08.01.2003
Offline
139
#3

2 svift

проблема в том, что в индексе гугла появились странички с редиректами. Они не содержат контента, только тупой редирект в мета теге. поэтому сказать, что это, просто урлы или кэш не могу.

Проблемка в том, что ведь мета редирект сильно не любят поисковики и гугл в частности.

Не повлияет ли это на мою основную часть сайта?

Хотя, хотя по логам, робот на эти страницы вроде бы не заходит. Хотя, на парочку зашел.

mustofik
На сайте с 15.05.2005
Offline
112
#4

ИМХО Гугля начинается проявлять игнор к Robots.txt

была замечена похожая трабла...

S
На сайте с 17.10.2003
Offline
332
#5

Alex GT, да смысл в том, что можно закрыть директории/файлы файлом robots.txt, можно поставить на ссылки rel=nofollow - но Google будет заносить запрещенные урлы в базу, однако ни кеша у таких адресов не будет, ни в выдаче их не встретишь... то есть то что по запросу site:domen.com Google выдает кучу запрещенных урлов без снипета - это не такая уж страшная беда... надо просто принять это как факт и не парится... у меня такое было, когда определенные служебные урлы были закрыты в robots.txt + ссылки на них если и были, то были с nofollow - но Гугля их упорно съела, однако в выдаче их нет и картину они не портят...

Revan
На сайте с 09.09.2005
Offline
321
#6

Но тем не менее автоматические пауки обязаны (причем насколько я слышал, не 100% что правда, но именно обязаны) слушаться robots.txt. Ну, в реале то понятно, что просто умный очень и с черными оптимизатоарми так борется. %)

Так вот писались на них абузы пару раз - пишут, что извиняются за ошибку скрипта и что больше не повторится. :)

С уважением, Прокофьев Александр, founder KudaGo.com (http://kudago.com). Отдаем информацию обо всех мероприятиях в РФ + Киев по API (/ru/forum/912869) всем желающим.
L
На сайте с 24.10.2005
Offline
24
#7

Alex GT, выводов делать не буду, опишу факт.

На крупном сайте две недели стоял robots.txt полностью запрещающий индексацю. Трафик с Гугля (ок. 300 чел/день) не уменьшился. Гугль индексировал сайт каждый день.

wolf
На сайте с 13.03.2001
Offline
1183
#8
Revan:
Но тем не менее автоматические пауки обязаны (причем насколько я слышал, не 100% что правда, но именно обязаны) слушаться robots.txt. Ну, в реале то понятно, что просто умный очень и с черными оптимизатоарми так борется. %)

А не факт, что роботы его не слушаются. Файл запрещает обращение к документам, но Гугль часто публикует их URL'ы и может даже неплохо ранжировать благодаря ссылочному. Использовать ведь информацию о внешних ссылках на документ файл robots.txt ведь не запрещает.

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
L
На сайте с 24.10.2005
Offline
24
#9
wolf:
А не факт, что роботы его не слушаются. Файл запрещает обращение к документам, но Гугль часто публикует их URL'ы и может даже неплохо ранжировать благодаря ссылочному. Использовать ведь информацию о внешних ссылках на документ файл robots.txt ведь не запрещает.

Конкретно в моем случае это, скорее всего, не так - весь трафик идет по низкочастотникам, в тексте ссылок они наверняка нигде не упоминаются.

Может быть, Гуглю нужно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?

wolf
На сайте с 13.03.2001
Offline
1183
#10
lika:
Может быть, Гуглю нажно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?

А вы поглядите на даты кешей этих страниц - наверняка они посещались роботом еще до появления запрещающих директив

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий