Удаление устаревших страниц

123
Kokh
На сайте с 24.05.2006
Offline
58
#11
Каширин:
Есть лимит, и он как раз на уровне 100к страниц.

Есть примеры и под 200К, получается все в разных условиях?

Закрывайте не существующие страницы в robots.txt.

Адреса страниц не переделывали, в этом случае действительно Moved Permanently пришлась бы кстати. Ситуация возникла когда пришлось одномоментно удалить устаревшую информацию, где-то около 20К. Роботс не поможет, повторюсь.

[Удален]
#12

Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:

Disallow: /item

и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item

P.S.: Слеш в конце урла ставится тогда, когда запрещается индексация директории. :)

Kokh
На сайте с 24.05.2006
Offline
58
#13
XTR:
Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:

Disallow: /item

и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item
QUOTE]
Ага, пасиб :) А если все не надо, например, надо удалить только диапазон адресов от item1 до itemN или от itemN до itemM, или вообще выборочно? Не писать же все 20 тыщ запрещенных адресов в robots.txt, Яндекс такой роботс вобще откажется читать :)
[Удален]
#14
Kokh:
XTR:
Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:

Disallow: /item

и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item
QUOTE]
Ага, пасиб :) А если все не надо, например, надо удалить только диапазон адресов от item1 до itemN или от itemN до itemM, или вообще выборочно? Не писать же все 20 тыщ запрещенных адресов в robots.txt, Яндекс такой роботс вобще откажется читать :)


Напишите в поддержку Яндекса и спросите, robots какого объема он может прочитать. Если ограничение есть, я бы для ускорения удаления страниц пачками выкладывал сгенеренные урлы в роботс. :)
Напишите в Я, даже интересно стало :)
Kokh
На сайте с 24.05.2006
Offline
58
#15
XTR:

Напишите в поддержку Яндекса и спросите, robots какого объема он может прочитать. Если ограничение есть, я бы для ускорения удаления страниц пачками выкладывал сгенеренные урлы в роботс. :)
Напишите в Я, даже интересно стало :)

Предполагаю, что ограничение такое же как и на макс. размер индексируемых страниц. Написал в Яндекс по поводу размера robots.txt.

А мысль тоже неплохая, то есть не просто выкладывать нагенеренные адреса, а пачками генерить их прямо в роботс, автоматизировать процесс.

Причем это будет легальный способ удаления, хоть и не такой быстрый как автоматический вызов http://webmaster.yandex.ru/delurl.xml Тогда, по идее, надо еще засекать обращения робота Я к robots.txt, чтоб обновлять список запрещенных адресов.

[Удален]
#16
Kokh:
Предполагаю, что ограничение такое же как и на макс. размер индексируемых страниц. Написал в Яндекс по поводу размера robots.txt.
А мысль тоже неплохая, то есть не просто выкладывать нагенеренные адреса, а пачками генерить их прямо в роботс, автоматизировать процесс.
Причем это будет легальный способ удаления, хоть и не такой быстрый как автоматический вызов http://webmaster.yandex.ru/delurl.xml Тогда, по идее, надо еще засекать обращения робота Я к robots.txt, чтоб обновлять список запрещенных адресов.

Я так мыслю, что яндексу достаточно 1 раз обратиться к роботс, чтобы увидеть запрещенные страницы. От апа до апа смотрите, если выпло столько страниц, сколько вы запретили - обновляйте роботс. :)

Но, нужно ли оно вам вообще? :)

E
На сайте с 05.02.2004
Offline
108
#17

Я бы честно говоря просто вынес бы сайт через форму целиком, предварительно прописав в роботсе

Disallow: /

А после апдейта тут же добавил бы его на индексацию заново

Bor-ka
На сайте с 16.11.2004
Offline
256
#18

Evgenich,

с такой скоростью индексации, как сейчас, эти 100к страниц будут индексирвоаться месяцев 6, имхо

Exotic Fruit
На сайте с 31.01.2006
Offline
155
#19

Редиректом посетителей с этих страниц гоните на схожие по тематике и всё

A
На сайте с 25.10.2005
Offline
219
#20

Kokh,

Это в принципе не законный метод, но с другой стороны - эффективная очистка от мусора,

А в чем незаконность? Эта форма для того и сделана - удалять несуществующие страницы. При полном редезайне сайта так и пришлось сделать - все старые страницы удалили, а прогой, или вручную - это не так существенно.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий