Для чего на на Хабре ошибка в robots.txt?

RA
На сайте с 01.06.2012
Offline
0
1026

Всем привет. Недавно я купил домен и начал вести блог. Конечно мне было интресно попадет ли мой блог в поиск Google. Я начал смотреть тематические запросы в Google и обнаружил, что везде попадаются страницы Хабра и в основном в директории "search" . Обычно сайты поиск закрывают от индексации и по этому меня это удивило. Я посмотрел их robots.txt и обнаружил следующие

User-agent: Google

Crawl-delay: 2

Disallow: /search/

Disallow: /js/

Disallow: /css/

Disallow: /special/

Host: habrahabr.ru

Но такого агента у Google нет. Агент ведь называется Googlebot

По этому весь поиск съел Google.

Зачем это сделано? Может я чего то не знаю? Или просто на Хабре ошиблись и теперь боятся поправить так как потеряют трафик?

[Удален]
#1
Roman Agafonov:
Всем привет. Недавно я купил домен и начал вести блог. Конечно мне было интресно попадет ли мой блог в поиск Google. Я начал смотреть тематические запросы в Google и обнаружил, что везде попадаются страницы Хабра и в основном в директории "search" . Обычно сайты поиск закрывают от индексации и по этому меня это удивило. Я посмотрел их robots.txt и обнаружил следующие
User-agent: Google
Crawl-delay: 2
Disallow: /search/
Disallow: /js/
Disallow: /css/
Disallow: /special/
Host: habrahabr.ru
Но такого агента у Google нет. Агент ведь называется Googlebot
По этому весь поиск съел Google.
Зачем это сделано? Может я чего то не знаю? Или просто на Хабре ошиблись и теперь боятся поправить так как потеряют трафик?

мне кажется, что основна масса найдет этот форум даже без поисковиков)

demon2005
На сайте с 06.02.2010
Offline
173
#2
Icantmove:
мне кажется, что основна масса найдет этот форум даже без поисковиков)

какой форум?

Машины должны работать. Люди должны думать. (Девиз компании "IBM") Хостинг ( http://goo.gl/em6I5 ), рекомендую. Код на скидку 965VI5O60E Выгодно купить/продать сайт ( http://www.telderi.ru/?pid=c0fb22 )
A5
На сайте с 02.06.2009
Offline
221
#3
Roman Agafonov:
Или просто на Хабре ошиблись и теперь боятся поправить так как потеряют трафик?

Обычная ошибка.

Бояться тут нечего и некого.

Да и вообще robots составлен делетантом:

Ибо директива Host не поддерживается ни googlebot'ом, ни slurp.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий