Посоветуйте, что делать с Яндексом

F
На сайте с 11.09.2002
Offline
7
1162

Есть сайт, страницы которого переделали с PHP на HTML. Yandex на данный момент проиндексировал 1400 страниц, которые сейчас естественно не доступны.

Потеря по посетителям будет ощутимая и насколько я понимаю, если робот Яндекса увидит, что страницы не доступны будет намного реже заходить (или я не прав).

В ручную удалять страницы через Я-кс?

Удалить и заново зарегить ресурс?

Какой здесь может быть оптимальный вариант?

[Удален]
#1

Лучше сделать, чтобы страницы были также доступны по старым именам.

Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#2

оптимальный есть минимизация потерь?

главное - главную страницу со ссылками обновить в индексе - все остальное маловлиять будет ...

можно попробовать на лету генерить robots.txt с dissallow и списком вновь проиндексированных файлов, но со старым расширением ...

Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#3

а вообще лучше страницы без расширения делать ... Алекс прав ...

F
На сайте с 11.09.2002
Offline
7
#4

А если ничего не предпринимать, то индексирование будет происходить реже? Каково может быть поведение робота?

[Удален]
#5

Feodal, тут сложно что-то предсказать. В любом случае не помешает сделать страницы доступными по старым адресам, чтобы не потерять трафик и входящие ссылки на внутренние страницы.

F
На сайте с 11.09.2002
Offline
7
#6

Ок.Спасибо. Думаю тема закрыта.

Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#7

дабы не возникло проблем из за некорректной формулировки, имеет смысл с них поставить серверный редирект на новые страницы, а не делатьих доступными ...

[Удален]
#8
дабы не возникло проблем из за некорректной формулировки, имеет смысл с них поставить серверный редирект на новые страницы, а не делатьих доступными ...

Нет! Не надо так делать!

Надо делать их доступными, но с навигационными ссылками на новые статические имена страниц. Тогда потерь не будет.

[Удален]
#9

В общем, тут надо действовать по ситуации. Если не критичны или отсутствуют внешние ссылки на старые URL, надо сделать как я написал в предыдущем посте, и запретить старые URL через robots.

Если ссылки на какие-то страницы важны - то тоже самое, но запрещать их не надо.

LM
На сайте с 30.11.2001
Offline
71
LiM
#10
Как писал Professor
дабы не возникло проблем из за некорректной формулировки, имеет смысл с них поставить серверный редирект на новые страницы, а не делатьих доступными ...

Неверный ход будет.

В этом случае будет наблюдаться резкое падение объема проиндексированных страниц сайта. Когда еще все выправится...

Interitus в этом плане предложил лучший способ. И правильно сказал, что все здесь очень индивидуально.

С уважением, Андрей Хроленок. Загляни в FAQ по оптимизации и продвижению сайтов (http://www.seoman.ru/FAQ/) Анализатор страниц сайтов (http://www.seoman.ru/analizer/)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий