robots.txt для Яндекса. Маленький нюанс.

12
AN
На сайте с 05.06.2004
Offline
243
3065

Сделал для одного из сайтов роботс такого вида:

User-Agent: Yandex

Disallow: /page1

Disallow: /page1

Disallow: /pageN

Crawl-delay: 5

Host: site.ru

User-Agent: *

Disallow: /page1

Disallow: /page1

Disallow: /pageN

Crawl-delay: 5

Проверяю через панель вебмастера. Яндекс грязно ругается, говоря: Crawl-delay встречается 2 раза.

Убираю Crawl-delay в секции для Яндекса, перепроверяю, говорит: "все Ок, буду пользовать строки 1-6, 8-12"

То есть получается, что если в роботсе есть 2 блока, User-Agent: Yandex и User-Agent: *, то Яндекс обрабатывает их оба? И в секции для Яндекса на надо дублировать все строки из общей секции, а достаточно указать отличающиеся?

Размещу ваши баннеры на посещаемых сайтах. Места еще есть! Возможен безнал. (/ru/forum/324945) Нужны копирайтеры/рерайтеры - медики. Пишите в личку. (/ru/forum/676932)
true82
На сайте с 23.08.2007
Offline
18
#1

По идее, User-Agent: * - это параметры для всех ботов, для чего тогда делаете User-Agent: Yandex?

На мой взгляд, Вы Яндексу повторили 2 раза.

"...Ничего что мы повторяем повторяем?.." (с) :)

Продаем хорошие автомобили на сайте (http://autoniks.ru) Покупаю качественный ссылки с качественных сайтов, тематика "авто", "юриспруденция", "безопасность", "флористика", "красота" (/ru/forum/245134)
AN
На сайте с 05.06.2004
Offline
243
#2
true82:
для чего тогда делаете User-Agent: Yandex?

Для Host: site.ru :)

kimberlit
На сайте с 13.03.2007
Offline
370
#3
true82:
По идее, User-Agent: * - это параметры для всех ботов, для чего тогда делаете User-Agent: Yandex?

Вы первый раз встречаете отдельные секции для поисковиков?

AnNik:
то Яндекс обрабатывает их оба?

По идее, не должен. Может глюк анализатора?

Alek$
На сайте с 25.06.2008
Offline
34
#4

AnNik, получается, да.

Единственный аспект в котором возникает нелогичность - это если для Яши надо указать один Crawl-delay, а для других - другой. Непонятно, то ли он в такой ситуации проигнорирует инструкцию вовсе, то ли учтет только первую или последнюю...

В свое время меня из колеи выбил такой пример:

Allow: /

Disallow: /secret.html

В этом случае он /secret.html индексировал

Disallow: /secret.html

Allow: /

А в этом - нет. Гугль при этом во всех случаях вел себя адекватно.

Google Cache Dumper & Bing Cache Dumper (/ru/forum/479980) RegSubmitter - Регистратор аккаунтов в социальных закладках (/ru/forum/300978) Мой блог (http://nevkontakte.org.ru).
T.R.O.N
На сайте с 18.05.2004
Offline
314
#5
AnNik:
Для Host: site.ru

Подойдите к вопросу проще. По стандарту обработки файл robots.txt обрабатывается посточно до возникновения первой ошибки. Все боты нормально реагирую на блок

User-Agent: *

Disallow: /page1

Disallow: /page1

Disallow: /pageN

Crawl-delay: 5

Host: site.ru

просто те, кто незнают что такое host - последнюю строку не обрабатывают. Зачем городить более сложные конструкции. Пусть этим занимаются те, кому валидность дороже работоспособности.

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
AN
На сайте с 05.06.2004
Offline
243
#6
T.R.O.N:
По стандарту обработки файл robots.txt обрабатывается посточно до возникновения первой ошибки. Все боты нормально реагирую на блок
...
просто те, кто незнают что такое host - последнюю строку не обрабатывают.

Уверены? :)

YugForum
На сайте с 14.04.2005
Offline
158
#7
T.R.O.N:
Подойдите к вопросу проще. По стандарту обработки файл robots.txt обрабатывается посточно до возникновения первой ошибки. Все боты нормально реагирую на блок
User-Agent: *
Disallow: /page1
Disallow: /page1
Disallow: /pageN
Crawl-delay: 5
Host: site.ru

просто те, кто незнают что такое host - последнюю строку не обрабатывают. Зачем городить более сложные конструкции. Пусть этим занимаются те, кому валидность дороже работоспособности.

Не совсем корректно, но точно работоспособно!

MyAmeli.ru (http://MyAmeli.ru)
Dmitry V___v
На сайте с 07.12.2006
Offline
310
#8
kimberlit:
Вы первый раз встречаете отдельные секции для поисковиков?

По идее, не должен. Может глюк анализатора?

Скорее недоработка. На Crawl-delay у меня он тоже ругается. И давно...

Но при этом, если убрать из секции для Yandex, но оставить для Yahoo (грузит больно сервак сильно) - последний игнорирует.

Создание и ведение кампаний Google/Bing/Twitter/FB Ads под USA, Canada, United Kingdom and Australia ( https://searchengines.guru/ru/forum/1028286 ) + жирный линкбилдинг под бурж ( https://searchengines.guru/ru/forum/1028282 )
T.R.O.N
На сайте с 18.05.2004
Offline
314
#9

AnNik, безусловно

AN
На сайте с 05.06.2004
Offline
243
#10

Вчера снова проверил тот же роботс, на этот раз ответ такой, как и должен быть, т.е. что Яндекс будет пользовать строки только своей секции.

Видимо, действительно была ошибочка в проверялке, которую уже починили.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий