Помогите с robots.txt! Что-то не понятное!

victor222
На сайте с 29.10.2009
Offline
198
744

Добрый день! Вчера закрывал роботом "каталог" страниц, а то было много дублей,и одну из каталога оставлял- оригинал!

Тестил в гугле-вепмастере, там все ок! Но вот сегодня хорошо что сеопульт предупредил, что "продвигаемые стр закрыты роботом" Почему? разве есть разница гугла, и Яши в этих простых правилах

Disallow: /load/5-
Disallow: /load/3-
Allow: /load/3-1-0-4$
Allow: /load/5-1-0-7$

Почему не открывают Allow: в Яндексе, и почему в гугле открывает?

сайт.ру/load/5-1-0-7

сайт.ру/load/3-1-0-4

kimberlit
На сайте с 13.03.2007
Offline
370
#1

А мануал читать не пробовал? Про приоритет директив, например.

victor222
На сайте с 29.10.2009
Offline
198
#2
kimberlit:
А мануал читать не пробовал? Про приоритет директив, например.

Я раньше делал все вроде было ок! ну скажите пожалуйста ошибку - что не так!

kimberlit
На сайте с 13.03.2007
Offline
370
#3

А второе предложение было адресовано кому?

ЗЫ Для забаненных в Яндексе: http://help.yandex.ru/webmaster/?id=996567

victor222
На сайте с 29.10.2009
Offline
198
#4
kimberlit:
А второе предложение было адресовано кому?

ЗЫ Для забаненных в Яндексе: http://help.yandex.ru/webmaster/?id=996567

Так что, нужно было просто поменять местами?


Allow: /load/3-1-0-4$
Disallow: /load/3-
Allow: /load/5-1-0-7$
Disallow: /load/5-

Вроде работает! А гуглу без разнице какие места, так получается?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий