- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, страницы которого переделали с PHP на HTML. Yandex на данный момент проиндексировал 1400 страниц, которые сейчас естественно не доступны.
Потеря по посетителям будет ощутимая и насколько я понимаю, если робот Яндекса увидит, что страницы не доступны будет намного реже заходить (или я не прав).
В ручную удалять страницы через Я-кс?
Удалить и заново зарегить ресурс?
Какой здесь может быть оптимальный вариант?
Лучше сделать, чтобы страницы были также доступны по старым именам.
оптимальный есть минимизация потерь?
главное - главную страницу со ссылками обновить в индексе - все остальное маловлиять будет ...
можно попробовать на лету генерить robots.txt с dissallow и списком вновь проиндексированных файлов, но со старым расширением ...
а вообще лучше страницы без расширения делать ... Алекс прав ...
А если ничего не предпринимать, то индексирование будет происходить реже? Каково может быть поведение робота?
Feodal, тут сложно что-то предсказать. В любом случае не помешает сделать страницы доступными по старым адресам, чтобы не потерять трафик и входящие ссылки на внутренние страницы.
Ок.Спасибо. Думаю тема закрыта.
дабы не возникло проблем из за некорректной формулировки, имеет смысл с них поставить серверный редирект на новые страницы, а не делатьих доступными ...
Нет! Не надо так делать!
Надо делать их доступными, но с навигационными ссылками на новые статические имена страниц. Тогда потерь не будет.
В общем, тут надо действовать по ситуации. Если не критичны или отсутствуют внешние ссылки на старые URL, надо сделать как я написал в предыдущем посте, и запретить старые URL через robots.
Если ссылки на какие-то страницы важны - то тоже самое, но запрещать их не надо.
дабы не возникло проблем из за некорректной формулировки, имеет смысл с них поставить серверный редирект на новые страницы, а не делатьих доступными ...
Неверный ход будет.
В этом случае будет наблюдаться резкое падение объема проиндексированных страниц сайта. Когда еще все выправится...
Interitus в этом плане предложил лучший способ. И правильно сказал, что все здесь очень индивидуально.