яша игнорирует роботс.тхт :(

12
kimberlit
На сайте с 13.03.2007
Offline
370
#11

Речь об этом?

User-agent: Yandex
Sitemap: http://itnsk.net/sitemap.xml
Disallow: *vacs_list&det_id=*
Host: itnsk.net

Надо вот так:

User-agent: Yandex
Disallow: /*vacs_list&det_id=
Host: itnsk.net
Sitemap: http://itnsk.net/sitemap.xml
TT
На сайте с 17.06.2008
Offline
50
TNT
#12
kimberlit:
Надо вот так:

боюсь что так как раз не надо )

добавил ваше правило, в панели вебмастера (раздел "Анализ robots.txt") все равно написано :

Результаты проверки URLURL Pезультат

http://itnsk.net/?inc=vacs_list&det_id=100907 запрещен правилом /*vacs_list&det_id=*

т.е правило то рабочее, вот только оно никак не мешает роботу постоянно тусоваться на этом сайте.

вариант с crawl-delay не устраивает потому как остальные страницы хотелось бы индексировать нормально без всяких там задержек ..

TNT добавил 15.08.2008 в 07:47

зыж: проблема решена, понял как это можно использовать в своих корысных целях ))))) всем спасибо за внимание ;-)

выкуп любых видов RU-трафа. дорого. icq: 175-947-125.
kimberlit
На сайте с 13.03.2007
Offline
370
#13
TNT:
боюсь что так как раз не надо )

Это почему же?

TNT:
вот только оно никак не мешает роботу постоянно тусоваться на этом сайте

Это не входит в функции robots.txt

PS Кстати, обрати внимание на расположение директив в секции ...

Волгарик
На сайте с 12.03.2007
Offline
92
#14
nihilanth:
Исправляйте robots.txt. Звездочки поддерживает только Яндекс и Google. А у вас они в секции для всех роботов. В секции же для Яндекса нет вообще Disallow - ему можно всё индексировать.

Читайте http://robotstxt.org.ru/ и http://help.yandex.ru/webmaster/?id=996567.

Все верно говорит! Правьте секцию для Яши как надо! Часто замечал, что если есть секция для Яши, то его робот игнорирует все, что не в его секции!!!

kimberlit
На сайте с 13.03.2007
Offline
370
#15
Волгарик:
Часто замечал, что если есть секция для Яши, то его робот игнорирует все, что не в его секции!!!

Я, конечно, эээ извиняюсь. Но какой смысл был бы тогда в отдельной секции, если бы робот Яндекса читал и учитывал общую секцию?

TT
На сайте с 17.06.2008
Offline
50
TNT
#16

смысл таких разрешающе-запрещающих конфигов: "от общего к частному"..

по такому принципу устроены конфиги апача, конфиги файрволлов, да те же самые права на файлы в UNIX-системах так даются: сначала устанавливаем права на папку потом конкретизируем права на файл = сначала устанавливаем права для всех роботов потом конкретно запрещаем что-то каждому в отдельности ..

TNT добавил 16.08.2008 в 04:35

kimberlit:
Это почему же?

потому что я проверил ваш вариант в панели вебмастера яшиной, панель сказала что он нерабочий..;)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий