Yahoo! расширяет возможности файла robots.txt

K. Ermakov
На сайте с 10.12.2004
Offline
328
3808

http://www.ysearchblog.com/archives/000372.html

Добавлена поддержка * и $.

* означает любой набор символов

$ используется как знак конца URL

Пример 1

User-Agent: Yahoo! Slurp

Allow: /public*/
Disallow: /*_print*.html
Disallow: /*?sessionid

1) Разрешает индексацию всех каталогов, начинающихся с 'public', например, '/public_html/' или '/public_graphs/'.

2) Запрещает индексацию всех файлов и каталогов, содержащих html-документы и строку '_print' в URL, например, '/card_print.html' или '/store_print/product.html'.

3) Запрещает индексацию URL, содержащих '?sessionid'

Пример 2

User-Agent: Yahoo! Slurp

Disallow: /*.gif$

Запрещает индексацию всех файлов, URL которых заканчивается на .gif

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
СКОРПИОН
На сайте с 05.01.2006
Offline
120
#1

Интересно!

Плюсомёт не работает, жаль... :(

Вот только один вопрос возникает, почему бы всем этим новаторам не ввести вместо robots.txt, например, yahoo.txt или yandex.txt. И себе жизнь облегчат и стандарты нарушать не будут. А то в сложных проектах robots уже на несколько страниц тянет, из-за отдельного описания под каждый бот...

• Контекстные ссылки с внутренних страниц навсегда (/ru/forum/370882) • Качественные сайты для заработка на контекстной рекламе и ссылках
K. Ermakov
На сайте с 10.12.2004
Offline
328
#2
СКОРПИОН:
А то в сложных проектах robots уже на несколько страниц тянет, из-за отдельного описания под каждый бот...

А такой robots видели? :)

http://www.webmasterworld.com/robots.txt

(впрочем, баян баянистый)

organic
На сайте с 07.11.2004
Offline
141
#3
K. Ermakov:
А такой robots видели?
http://www.webmasterworld.com/robots.txt

фигасе... т.е понятно, что роботам они вот это дают http://www.webmasterworld.com/robots2

K. Ermakov, а зачем такая хитромудрость? Я имею в виду не сами манипуляции с robots.txt а именно то что они с ним сделали - какая то группа новостей прямо

Yeah, well, I'm gonna go build my own theme park, with blackjack and hookers. In fact, forget the park!
Каширин
На сайте с 03.01.2004
Offline
1018
#4

K. Ermakov, Костя, введение Яндексом директивы Host привело к тому, что блок с такой директивой игнорируется Googlebot. Будет ли аналогичная ситуация в данном случае?

K. Ermakov
На сайте с 10.12.2004
Offline
328
#5
organic:
т.е понятно, что роботам они вот это дают http://www.webmasterworld.com/robots2

А если зайдёте с User-Agentом, например, Slurp, то и по адресу http://www.webmasterworld.com/robots.txt получите другой файл. Клоачат они бессовестно! :)

***

Каширин, с учётом поддержки Гуглом директивы Allow: и * с $, думаю, проблем не будет.

Bloody dude
На сайте с 16.03.2006
Offline
68
#6

Это все, конечно, хорошо, но кооперативное движение начинает утомлять. Роботс.тхт уже каждая приличная машина читает как хочет, предлагая добавлять туда то, что она хочет. Мета-тэги у каждой со своими особенностями. Редиректы хотим понимаем, не хотим - не понимаем...

Конечно, не велика проблема для каждого бота писать отдельный блочок в роботс.тхт. Получится всего-то навсего

UA's:

Yandex

Rambler

Google

Yahoo

MSN (а на Live передадутся ВСЕ особенности?)

И для каждого знаков эдак по 500...

И толпа всяческой мелочевки. Если человек сравнительно в рынке, то нет вопросов. А толпа веб-мастеров тупо напишут роботс.тхт по стандартам, на которые, оказывается, давным давно забили все, кому не лень.

Кто-нибудь вообще обновит стандарты хоть когда-нибудь? Тем более, что если искалки устроили всю эту пионэрию, значит, проблема действительно существует...

А народ на вебмастерворлде просто стебется со всего этого безобразия. Они ж там еще и тэг google pray когда-то лепили:)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий