- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно проблема в следующем, панель webmaster показывает, что загружено роботом 338 страниц в поиске 124, хотя должно быть порядка 100 (часть дублей всё таки проходит). Движок генерирует много дублей страниц, в результате чего такое большое количество загруженных страниц, что бы избавиться от дублей и что бы в индекс не попадала то одна, то другая страница сделал 301 редирект на нужные страницы.
Вопрос в том будет ли робот загружать дубли страниц или же редирект избавит его от этого? Думаю что всё таки редирект избавит робота от загрузки такого количества страниц, но всё же решил спросить.
Думаю что всё таки редирект избавит робота от загрузки такого количества страниц, но всё же решил спросить.
Правильно думаете, если сервер отдает 301 редирект робот эту страницу не сможет получить впринципе, на то он и редирект. Если грамотно настроить все редиректы и не дать движку плодить дубли со временем в индексе останется только то что нужно.
И ещё желательно в роботс.тхт закрыть не нужные дубли.
Правильно думаете, если сервер отдает 301 редирект робот эту страницу не сможет получить впринципе, на то он и редирект.
Спасибо кэп.
Если вы отдаёте 301 редирект и не завершаете работу скрипта, то робот увидит всё, что отдаётся браузеру. Редирект - это всего лишь инструкция. Роботы просто не учитывают текст страниц и переходят по указанному в редиректе адресу.