robots.txt и status 301

L4
На сайте с 31.08.2004
Offline
57
575

есть у меня на сайте такие урлы:

filmXXXXX.html (где 12345 любое число - айдишка) - это странички фильмов... там же на страницах идет обсуждение фильмов, и если мнений очень много, то все разбивается на страницы и появляются УРЛы вида:

и filmXXXXXpYYY.html (где YYY это номер страницы).

все это через mod_rewrite отдает запрос на скрипт, и айдишку со страницей кидает параметром

так как страниц в последнее время проиндексированных Яндексом стало очень много, я решил урлы второго типа отрезать роботсами.... просто так в robots.txt их не пропишешь, потому что XXXXX разные числа. тогда я сделал, чтобы урлы второго типа были также доступны так - film_XXXXXpYYY.html

при обращении к урлу старого типа, отдаю статус 301 и перебрасываю на урл нового типа. в роботсы же добавил:

Disallow: /film_

рассчитывал я, что получив 301 яндекс урл старого типа из своей базы удалит, а новый не добавит, из-за роботсов... новые он и не добавляет, но и старые похоже не удаляет:(

проверял через addurl странички на которые робот приходил несколько недель назад - они все еще в базе:( что я сделал не так?

виртуальные открытки (http://cards.br.by/), виртуальные телеграммы (http://cards.br.by/tg/)
L4
На сайте с 31.08.2004
Offline
57
#1

так все же

если в базе Яндекса есть документ, и приходя его переиндексировать робот получает 301, он его удаляет из базы или нет?

M
На сайте с 16.01.2003
Offline
129
#2

удаляет и кладет в базу новый урл. Ну, а остальное - со временем рассосется

Sir[MAI]
На сайте с 22.10.2002
Offline
147
#3

mixb, проверял?

С уважением, Сергей

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий