Удаление устаревших страниц

1 23
R
На сайте с 10.05.2006
Offline
111
#21

я вообще не удаляю старые странци

U
На сайте с 17.12.2002
Offline
41
#22
alut:
Kokh,

А в чем незаконность? Эта форма для того и сделана - удалять несуществующие страницы. При полном редезайне сайта так и пришлось сделать - все старые страницы удалили, а прогой, или вручную - это не так существенно.

Уважаемый alut, правильно ли я понимаю что:

на старые старницы Вы поставили 404, затем удалили эти страницы через форму, а в роботс поставили запрет на индексацию старых страниц?

Kokh
На сайте с 24.05.2006
Offline
58
#23
я вообще не удаляю старые странци

И не надо, если сайт не большой по объему страниц. Но если индексированных уже зашкаливает за 100К, то Яндекс новые страницы глотает не так резво, тогда и возникает вопрос об "эффективной чистке старого хлама" из индекса.

Ugrumiy:
Уважаемый alut, правильно ли я понимаю что:
на старые старницы Вы поставили 404, затем удалили эти страницы через форму, а в роботс поставили запрет на индексацию старых страниц?

Если удаляли через форму, то какой смысл ставить запрет? 404 выдает, значит индексировать нечего :) Кстати, я так и не понял, насколько быстро удалятся уже проиндексированные страницы из индекса, если их запретить в роботсе, и удалятся ли вообще. Саппорт Я об этом умалчивает, как и о максимально допустимом размере robots.txt 😒

Deni
На сайте с 15.04.2006
Offline
355
#24

Kokh, 14 дней назад запретил индексацию отдельных урлов

Через форму удалил их

Они так и есть в выдачи

Kokh
На сайте с 24.05.2006
Offline
58
#25
Deni:
Kokh, 14 дней назад запретил индексацию отдельных урлов Через форму удалил их Они так и есть в выдачи

Однако обещают в течении нескольких дней, если через форму.

Bor-ka
На сайте с 16.11.2004
Offline
256
#26
Deni:
Kokh, 14 дней назад запретил индексацию отдельных урлов
Через форму удалил их
Они так и есть в выдачи

у некоторых месяцами не удаляются запрещенные или отсутствующие.

Deni
На сайте с 15.04.2006
Offline
355
#27

Чаще всего не удаляются так как робот не ходит (очевидно) у меня то он ползает нормально

Kokh
На сайте с 24.05.2006
Offline
58
#28

Теперь есть информация из первоисточника. Кому интересно: максимально допустимый размер robots.txt 32 килобайта.

Платон:
Да, если страница была проиндексирована и теперь запрещена к индексированию, в
скором времени она удалится из базы.
U
На сайте с 17.12.2002
Offline
41
#29
Kokh:

Если удаляли через форму, то какой смысл ставить запрет? 404 выдает, значит индексировать нечего :) Кстати, я так и не понял, насколько быстро удалятся уже проиндексированные страницы из индекса, если их запретить в роботсе, и удалятся ли вообще. Саппорт Я об этом умалчивает, как и о максимально допустимом размере robots.txt 😒

Kokh в том-то и дело, что после того как некий раздел сайта переехал на поддомен, а на старые была поставлена 404, старые так и сидят в индексе Яндекса уже около года. Правда, через форму они не были удалены. Но мне казалось что 404 будет достаточно для того чтобы Яндекс их самостоятельно выкинул.

Видимо, все-таки необходимо еще и через форму удалить.

Нет?

Kokh
На сайте с 24.05.2006
Offline
58
#30
Ugrumiy:
Kokh мне казалось что 404 будет достаточно для того чтобы Яндекс их самостоятельно выкинул

Мне тоже так казалось. Прошло уже достаточно времени, чтобы яндекс повторно прошелся по этим страницам и увидел 404, причем ничего не надо переиндексировать, просто получить код ответа сервера и удалить страницу из базы. Видимо этот механизм у них еще не достаточно отработан. Значит надо помогать, запрещать в роботсе, удалять через форму... Только пишут, что и это не действует.

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий