- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, появился такой вопрос.
Некоторое время назад мы полностью переделали сайт. Старые страницы удалили и заблокировали их индексацию.
Сейчас в Яндексе остались только новые страницы, а вот в индексе Гугла еще осталось порядка 150 старых страниц, причем некоторые из них до сих пор занимают довольно высокие места в поисковой выдаче. Мы прочитали, что более правильно для поисковой оптимизации сайта установить редирект со старых страниц сайта на соответствующие им новые страницы. Мы сделали это для десятка самых важных страниц.
Есть ли смысл заниматься тем же самым для остальных старых страниц? Большая часть из них - это отдельные странички с темами форума, старыми файлами для скачивания и т.д. Посещаемость таких страниц крайне низкая, да и аналогов этих страниц на новом сайте нет, поэтому редирект для них мы делать не стали. Но мы не знаем, насколько серьезно это повредит ранжированию сайта. Будем благодарны за ваш опыт в этом вопросе.
Некоторое время назад мы полностью переделали сайт. Старые страницы удалили и заблокировали их индексацию.
Вот не надо так делать. Удаляете страницу - URL должен отдавать 410 (удалено окончательно) или хотя бы 404 (не найдено). В этом случае ПС просто выкинет эти урлы из индекса. Запретив их сканирование в robots.txt, вы не даёте роботу понять, что страниц уже нет. Они так и будут висеть в индексе.
Если у вас есть новые страницы, соответствующие старым неактуальным - надо настраивать редирект (301, никаких 302). И не надо редиректить на какие-то левые страницы (типа главной, как любят делать многие вебмастера), это путь к проблемам в сканировании и индексации.
Ну и на всякий случай: гуглобот может годами тыкаться в давно мёртвые урлы несмотря на то, что формально давно всё из индекса снёс, и в Search Console никаких отметок об этом нет. Смотрите в логи через период.
Вот не надо так делать. Удаляете страницу - URL должен отдавать 410 (удалено окончательно) или хотя бы 404 (не найдено). В этом случае ПС просто выкинет эти урлы из индекса. Запретив их сканирование в robots.txt, вы не даёте роботу понять, что страниц уже нет. Они так и будут висеть в индексе.
Спасибо за совет, про это не знали.
Если у вас есть новые страницы, соответствующие старым неактуальным - надо настраивать редирект (301, никаких 302). И не надо редиректить на какие-то левые страницы (типа главной, как любят делать многие вебмастера), это путь к проблемам в сканировании и индексации.
А если для старых страниц аналога нет, то настройкой редиректа заниматься не стоит? Мы опасаемся, что когда поисковик будет заходить на старые страницы и получать отказы, то он сайт будет понижать в выдаче. Это опасение обоснованно или поисковик просто удалит страницу из индекса, и ни на что больше это не повлияет?
А если для старых страниц аналога нет, то настройкой редиректа заниматься не стоит? Мы опасаемся, что когда поисковик будет заходить на старые страницы и получать отказы, то он сайт будет понижать в выдаче. Это опасение обоснованно или поисковик просто удалит страницу из индекса, и ни на что больше это не повлияет?
Может и повлиять в минус, если это была важная страничка - то есть важный узел семантического графа, определявший общее соответствие сайта тематике. Ну, или трафиковая страничка, неплохо передававшая веса каким-то другим продвигаемым страничкам.
В большинстве случаев просто деиндексирует убитый URL - и всё.
Тут речь не про какие-то отказы. Зашёл робот, получил 404, сказал "ага, вон как". Он ещё, вероятно, ткнётся пару раз (гуглобот - зануда), и только после этого удалит из индекса. Яндекс снесет сразу.
Но вот насколько эта страничка важна для соответствия тематике, привлечения трафика и конверсий - тут вам виднее.
А, ну кстати, про редиректы. Ссылочное удаленная страничка внешнее принимала? Если да, и ссылки жирные - стоит подумать, надо редиректить или нет. Влюбом случае, редиректить лучше на аналогичную страницу.
Есть ли смысл заниматься тем же самым для остальных старых страниц?