Вопрос о robots: есть ли лимит на количество директив?

S
На сайте с 06.07.2009
Offline
41
305

Последний ап неожиданно удивил, яндекс втащил в индекс кучу ненужных страниц.

Мой движок компилирует статические страницы: *.html. Они открыты для индексирования.

Но также есть дублирующие их страницы вида /index.php?product=...

В роботсе прописано:

Disallow: /index.php?

Disallow: /?

До недавнего времени было всё ок. Но неделю назад я в роботс внес еще много запрещенных к индексированию страниц (около 50)... Поставил их вначале. Таким образом функция запрета к индексированию оказалось внизу.

Соотвественно, могут быть три варианта: есть какой то лимит на количество строк/директив, роботу не понравилось что запрет на index.php расположен внизу, произошел просто баг и всё исправится само.

Прошу опытных оптимизаторов помочь! Информации о такой проблеме не нашел.

[Удален]
#1

тоже интересно!

В роботсе страницы закрыты, а они проиндексировались Яндексом.

Delarante
На сайте с 13.07.2008
Offline
69
#2

У robots.txt есть две проблемы кривые руки или вес превышающий 256 Кб.

Цитата из Я

Слишком большие robots.txt (более 256 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:
User-agent: Yandex
Disallow:

Скольку он у вас весит?

S
На сайте с 06.07.2009
Offline
41
#3

нуу.. у меня не настолько большой файл))

8Кб всего

так в чем же тогда может быть проблема? до последнего добавления пятидесяти директив Dissalow никаких изменений не было, и яндекс понимал всё так, как нужно.

infomix
На сайте с 03.11.2008
Offline
10
#4

пример вашего роботс в студию.... (или личку) ошибка наверняка где то...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий