- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация: На сайте стояла приблуда от панели хостинга, создающая sitemap.xml
Из-за смены темы Вордпресса в sitemap.xml посыпались куча дублей страниц магазина с параметрами сортировки цены, количества товаров на страницу и.т.д.
sitemap.xml разросся раз в 7 и стал весить около 1.4 Mb
Проблема - дубли (как известно никакой поисковик их не любит).
Было придумано 2 пути решения:
1. Вариант. (Что и было сделано).
Отключить хостерскую приблуду (она не настраивается никак на исключение параметров) и включить сайтмап от Yoast SEO.
В robots.txt для надежности прописать соответствующие Disallow (для всех пауков и Гугла) и Clean-param для Яндекса.
Сейчас карта сайта от Yoast SEO (многостраничная) с разбитая по категориям, товарам, марка товаров итд.
Карта весит 0.25 Mb
2. Вариант (Показался бредовым)
Оставить приблуду и ее карту весящую 1.4 Mb
В robots.txt прописать все что в Варианте 1.
Почему показался бредовым: заставлять паука Яндекса читать 1.4Mb, пробегать дубли и заставлять сравнивать их с правилами robots.txt кажется немного наглостью.
Прошло 4 дня но в Яндекс так и не появились утерянные страницы.
Теперь по прошествии 4 дней "Вариант 2" кажется не таким и бредовым.
Может действительно не надо было менять всю карту, а оставить старую огроменную с дублями и это Яндексу проще (перелопатить ее на директивы robots.txt) чем перечитывать новую карту от Yoast?
Было придумано 2 пути решения:
Сейчас карта сайта от Yoast SEO (многостраничная)
Я не работаю с Yoast SEO, но поступил бы следующим образом - выполнил краулинг сайта программой Screaming Frog и с учётом текущих правил robots.txt сформировал XML карту. Её бы и использовал как актуальную.
Если со структурой и навигацией сайта всё в порядке, то вы должны получить вполне рабочую XML карту.
То есть например site.com/shop/marka/mercedes был и в старой карте (от приблуды) и в новой есть от Yoast, но в отчете Яндекса его нет (ни в BAD ни в CANONICAL).
Просто не очень понятно что за процесс идет и как соориентироваться в ожиданиях?