Расширенный синтаксис robots.txt

E
На сайте с 17.03.2011
Offline
13
1036

Недавно занялась закрытием дублей страниц и выяснила, что для Яндекса синтаксис robots.txt очень расширен.

http://help.yandex.ru/webmaster/?id=996567#996572

Подскажите, что из этих команд допустимо для Гугла?

Может, где-то есть подробное описание.

Что будет, если использовать данный синтаксис для всех веток, а не только для Яндекса?

Z-Style
На сайте с 18.03.2010
Offline
185
#1

Можете разделить отдельно директивы для Яндекса.

А вообще, если другие ПС не понимают директивы - пропускают их.

A
На сайте с 03.04.2011
Offline
3
#2

директиву Host (и возможно Clean-param) google не учитывает. Остальное все работает и для google тоже

Pavel Medvedev
На сайте с 27.01.2006
Offline
166
#3

Гугл не следует директивам яндекса, но совершенно корректно читает такой роботс.

Ради красивого кода нет смысла отдельно писать роботс для яндекса и остальных ПС.

Есть шанс что какой-нить Байду или бразильские поисковики переклинит от такого роботса и они проиндексируют сайт не следуя директивам - но оно нужно?

Консультирую по SEO. Опыт c 2005: окна топ1,Ашан,Фишки,Спортс и др. Пишите в FB.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий