Выпал из Яндекса из-за robots.txt

12
DM
На сайте с 07.05.2007
Offline
2
1840

Собственно, сабж.

Решил я забанить на своем сайте боты Yahoo! (уж очень брутально они его сканят). Для этого, по рекомендации самого Yahoo! создал robots.txt и внес в него следующие строки:

User-agent: Slurp

Disallow: /

Каково же было мое удивление, когда вместе с яхушным ботом пропал и Яндекс. На второй день я был выкинут из поиска вообще.

Что я сделал не так?

BigBrother
На сайте с 16.06.2006
Offline
96
#1
dj_maxx:
Собственно, сабж.
Решил я забанить на своем сайте боты Yahoo! (уж очень брутально они его сканят). Для этого, по рекомендации самого Yahoo! создал robots.txt и внес в него следующие строки:

User-agent: Slurp

Disallow: /


Каково же было мое удивление, когда вместе с яхушным ботом пропал и Яндекс. На второй день я был выкинут из поиска вообще.

Что я сделал не так?

Покажи полный robots.txt

So many kings, but few jokers!
DM
На сайте с 07.05.2007
Offline
2
#2

Это и есть полный robots.txt

до этого его вообще не было :)


[max@solomenka-ix solomenka-ix]$ cat robots.txt.bak
User-agent: Slurp
Disallow: /
[max@solomenka-ix solomenka-ix]$

PS: в бак переименовал после инцидента уже.

Deni
На сайте с 15.04.2006
Offline
355
#3

dj_maxx,

Очевидно все же стоит для Яндекса написать отдельную директиву и не забыть указать хост.

Кстати выпать могли и по другой причине

BigBrother
На сайте с 16.06.2006
Offline
96
#4
dj_maxx:
Это и есть полный robots.txt

до этого его вообще не было :)


[max@solomenka-ix solomenka-ix]$ cat robots.txt.bak
User-agent: Slurp
Disallow: /
[max@solomenka-ix solomenka-ix]$


PS: в бак переименовал после инцидента уже.

В общем ОК... Единственно что - согласно http://www.robotstxt.org/wc/norobots.html -

"The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL)." (выделение мое).

Не то, чтобы очень важно - но я бы пустую строку добавил в конце (как конец блока)

Так что причина скорее всего не в нем. А что забирал Яндексовский индексер? Если НЕ только роботс - тогда точно не в этом проблема.

DM
На сайте с 07.05.2007
Offline
2
#5

Последнее, что забрал Яндекс был robots.txt

C тех пор его след простыл...

BigBrother
На сайте с 16.06.2006
Offline
96
#6
dj_maxx:
Последнее, что забрал Яндекс был robots.txt
C тех пор его след простыл...

Хммм... Неужели ребята семантику сломали? Врят-ли.

Вот что..... Внимательно посмотри, с каким кодом ты отдал robots.txt, с каким MIME и не пакованный ли. Дело в том, что если робот видит наличие robots.txt, но не может получить его содержимое - он, по понятным причинам, считается запрещающим.

DM
На сайте с 07.05.2007
Offline
2
#7

Мдя.. странно как-то.

Может просто совпало мое создание роботса с очередным апдейтом Яндекса %)

DM
На сайте с 07.05.2007
Offline
2
#8

При попытке добавить УРЛ говорит

К сожалению, мы не смогли дождаться ответа от http://solomenka-ix.org.ua/. Рекомендуем обратиться к вашему хостеру для улучшения времени ответа сервера.

Сайт при этом живой и относительно не тормознутый. Можете сами проверить...

AVV
На сайте с 31.07.2006
Offline
84
AVV
#9
BigBrother:
Дело в том, что если робот видит наличие robots.txt, но не может получить его содержимое - он, по понятным причинам, считается запрещающим.

Почему считается запрещающим?

Стандарт исключений для роботов:

http://www.robotstxt.org/wc/norobots.html


The presence of an empty "/robots.txt" file has no explicit associated semantics, it will be treated as if it was not present, i.e. all robots will consider themselves welcome.

Отсутствие файла или пустой файл robots.txt равнозначно разрешению любому роботу индексировать весь сайт полностью.

--

И потом, как это так:


видит наличие robots.txt, но не может получить его содержимое

Ведь если бот получил ответ сервера при запросе файла с кодом ошибки отличным от 200, то, ясное дело, он файл не видит, а если с ответом сервера 200ОК, то содержимое файла он, естественно, уже получил.

DM
На сайте с 07.05.2007
Offline
2
#10

Хм... ситуация стала намного интересней. Уже 2 дня меня сканят боты яндекса, а в поиске до сих пор пусто %)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий