К вытереть ненужную динамику?

S
На сайте с 03.06.2003
Offline
74
392

Господа! Бьюсь уже третью неделю с вытиранием через robots.txt из поисковиков файлов конструкции http://www.domain.ru/?folder=5&file=ping

С рамблером закончилось совсем плачевно, но скорее всего причина была в том, что я не пропустил строку между дериктивами для разных User-Agent. Сие не помогает:

User-Agent: *

Disallow: /?folder=5&file=ping

Где грабли? Заранее благодарен!

[Удален]
#1
Как писал Sancho
Господа! Бьюсь уже третью неделю с вытиранием через robots.txt из поисковиков файлов конструкции http://www.domain.ru/?folder=5&file=ping
С рамблером закончилось совсем плачевно, но скорее всего причина была в том, что я не пропустил строку между дериктивами для разных User-Agent. Сие не помогает:
User-Agent: *
Disallow: /?folder=5&file=ping

Где грабли? Заранее благодарен!

Может в ДНК? :) (Шутка. Не обижайтесь.)

Как Вы выяснили, что такая конструкция robots.txt не помогает?

Что отвечает скрипт удаления в Яндексе?

S
На сайте с 03.06.2003
Offline
74
#2

В том-то и фокус, что запрос ошибок не генерит :) Так было задумано, чтоб из выдачи не пропадать по мере переиндексации с мод_реврайтом :)

Забубенил в роботс запреты на старые запросы, не помогает, бот проезжается по ним, получает опять 200 и ничего не делает :(

А вот и ответик :(

URL доступен и не запрещен в /robots.txt. Нет оснований для удаления.

S
На сайте с 03.06.2003
Offline
74
#3

А проблема была действительно в ДНК :)

Добавил снова строки в роботс, вручную засабмитил, получил ответ, что файлы будут удалены из базы по мере обхода робота! Перефразирую вопрос: "Почему автоматом не хочет удалять, а ведь цепляет роботс почти каждый день?". И еще... из роботса строки я опять удалил, уж дюже стремно опять накосяпорить и вывалиться на три недели :) А если в следующий обход бот не обнаружит дисалловных строк, он опять проиндексит старую динамику ? :) :) :)

[Удален]
#4
Как писал Sancho
А если в следующий обход бот не обнаружит дисалловных строк, он опять проиндексит старую динамику ? :) :) :)

Да.

Строки в robots.txt надо оставить, иначе робот не увидит запрещения. Кстати, у Вас абсолютно правильная конструкция robots.txt, никаких проблем возникнуть не должно.

S
На сайте с 03.06.2003
Offline
74
#5

Пасиба за разъяснения :) Век живи, век учись!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий