Вопрос про robots.txt

S
На сайте с 06.12.2010
Offline
18
663

Здравствуйте! Со мной хотят поспорить насчет правильно составления robots.txt Я всегда пишу примерно так:

User-agent: *

Disallow: [указать, что не нужно индексировать]

Host: www.sait.ru

Мне говорят что нужно так:

User-agent: *

Disallow: [указать, что не нужно индексировать]

User-agent: Yandex

Disallow: [указать, что не нужно индексировать]

Host: www.sait.ru

Неужели я всё это время не правильно составляю robots.txt . Большая ли разница в этих вариантах. Как повлияет это на индексацию моего сайта?

DS
На сайте с 15.12.2011
Offline
1
#1

robots.txt - извечная проблема

S
На сайте с 06.12.2010
Offline
18
#2
DmitriySeo:
robots.txt - извечная проблема

:) если честно глупый вопрос, но человек доказывает мне одно, а опыт мне говорит что разницы почти нет.

Dwarfik
На сайте с 11.10.2008
Offline
152
#3

У нас на работе девочка одна ходит на курсы по контекстной рекламе в одну из пафосных сео-конктор. И недавно тоже заявила мне, что в роботсе надо для яндекса дублировать директивы с точным указанием юзер-агента.

Я девочку мягко отправил, но задумался...

Логики в этом нет, но яша не поддаётся логике))

6 тип эннеаграммы
OT
На сайте с 05.07.2011
Offline
3
#4

довольно часто встречаемая проблема. Но Ваш вариант скорее неправильный. Встречала сайты, где User-agent прописан под каждую поисковую систему. Из опыта: всегда прописывала User-agent: Yandex.

WebAlt
На сайте с 02.12.2007
Offline
266
#5
Shalagin:
:) если честно глупый вопрос, но человек доказывает мне одно, а опыт мне говорит что разницы почти нет.

Если директивы одинаковые для всех ботов, то смысла нет отдельно прописывать для User-agent: Yandex. В вашем варианте правильный первый.

http://www.yandex.ru/robots.txt

http://www.google.ru/robots.txt

OT
На сайте с 05.07.2011
Offline
3
#6

Google не поддерживает директиву Host. используется поисковиками Яндекс и Рамблер.

если прописать хост в общем списке, то робортс обработается с ошибкой. Я так считаю!

olga-top добавил 15.12.2011 в 16:50

имхо, Ваш вариант неверный. :)

WebAlt
На сайте с 02.12.2007
Offline
266
#7
olga-top:

...если прописать хост в общем списке, то робортс обработается с ошибкой. Я так считаю!

На "Я так считаю" далеко не уедешь, читайте справки:

http://help.yandex.ru/webmaster/?id=996567#996574

ruizAv
На сайте с 08.06.2004
Offline
67
#8
olga-top:
если прописать хост в общем списке, то робортс обработается с ошибкой. Я так считаю!

Зашел в гуглю-вебмастер, вбил роботс в виде:

User-agent: *

Disallow: /cgi-bin

Host: vodka.kiev.ua

Sitemap: http://vodka.kiev.ua/sitemap.xml.gz

и запустил анализ корневого урла. В результатах:

Синтаксический анализ результатов поиска

Значение Результат

Строка 3: bla-bla-bla Синтаксис не распознается

Строка 4: Sitemap: http://vodka.kiev.ua/sitemap.xml.gz Обнаружены данные о действительном файле Sitemap

На «bla-bla-bla» - ругается, на «Host» - не ругается.

Пример самого Яндекса:

#Пример корректно составленного robots.txt, при обработке

#которого директива Host учитывается

User-Agent: *

Disallow:

Host: www.имя_вашего_сервера.ru

ruizAv добавил 15.12.2011 в 17:32

Dwarfik:
девочка … курсы по контекстной рекламе … пафосных сео-конктор … в роботсе надо для яндекса дублировать директивы с точным указанием юзер-агента.

Вот почему-то именно такое сочетание постоянно и встречается. Сдесь же есть «пафосные СЕО», может разъяснят? Или продолжать считать это потоком сознания?

S
На сайте с 06.12.2010
Offline
18
#9

Ок, ну в принципе мне всё понятно, самое главное что мой вариант тоже правильный. А то ведь реально человек упорно доказывал что я не прав и не специалист((( ... Спасибо всем за ответ :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий