Как правильно почистить сайт от плохих страниц

BK
На сайте с 06.04.2023
Offline
0
257

Здравствуйте. Изначально добился позиций интернет магазина по в.ч. запросам до ТОП-1 – ТОП-3. Было немного товаров, решил расширить ассортимент, добавить прям все-все чем торгуем (стройматериалы) и без атрибутов, а каждый цвет (или другое) отдельным товаром. Стало удобно пользоваться фильтром, но количество товаров увеличилось с 500 до 15000. Естественно описание товаров было минимальным и очень схожим (могло отличаться одно слово или цифра). Какое-то время я держался первым, а потом поплыл вниз. Конкуренты делали подробные описания всех товаров, а у меня получился "гоVносайт" с точки зрения гугла, хотя с практической точки зрения благодаря наличию фильтра и продуманных всех характеристик равных ему нет. Но гуглу это не нужно, ему нужен контент.

Ну я начал добавлять товары с объемным контентом, и опять выстрелил вверх, но, из 10 страниц добавилось 2 и все... сайт не индексируется. Залез в консоль, а там в очереди на индексацию 4000+ страниц... И тут я решил что гоVностраницы нужно "жахнуть" чтоб был ресурс для индексации, а то поисковик уже просто не успевает, и сделать все товары красивенькие, с атрибутами и 100% уникальностью чтоб поднять качество сайта. Как только я "жахнул" все плохое, все новое начало индексироваться но сайт улетел с позиций в 40+ и уже почти год как там. На сайте за это время куча нового супер контента на 5000+ зн. с оригинальными изображениями, и эти странице в топе, но в.ч. запросы по прежнему 40+ и стоят на месте. В консоле 6000 ошибок 404 и они ну ооочень медленно от туда уходят. Я думал сайт слетит на время, потом 404 уйдут и все восстановится, но уже очень много время прошло, подозреваю что нужно что-то делать. Вопрос – что? Я могу из бэкапа восстановить все удаленные говVостраницы, но поможет ли это? Или сделает еще хуже?

Антоний Казанский
На сайте с 12.04.2007
Offline
642
#1
Bozhkov_K :
подозреваю что нужно что-то делать. Вопрос – что?

Проверять насколько корректно решены все технические вопросы по оптимизации индексирования которые влияют на краулинговый бюджет, а именно:

1) Корректная генерация XML карты сайта с правильными датами обновления и передачи данных в <lastmod>

2) Закрыть для индексации всё служебно-ненужное, проверить возможные дубли движка (удалить, убрать лишние выводы, закрыть индексацию)

3) При вашем объёме актуальна поддержка Last-Modified и Last-Modified-Since - разобраться что это такое и также внедрить

4) Физически пройтись программным краулером по сайту (например, Screaming Frog) на предмет возможных циклических адресаций, битых ссылок и т.д.

5) Использовать Indexing API (в том числе и не постоянной основе) для удаления/обновления требуемых URL (в Консоле возьмёте конкретику по URL адресам)

6) Уже факультативно - проверьте/внедрите (если её нет) - перелинковку.

7) В особых случаях надо смотреть по логам куда долбиться Гугл. Если он постоянно долбиться на какие-то отдельные страницы, тоже надо разбираться по ситуации, почему это происходит - тут по обстоятельствам.

8) Проверить разницу межу содержанием отрендеренной страницы и неотрендеренной (Screaming Frog  позволяет это сделать).  

По хорошему, надо проводить техническую ревизию вашего сайта, наверняка есть проблемы, которые могут быть для вас в слепой зоне.

Всё вышеуказанное влияет на поисковую квоту (на краулинговый бюджет). Поищите материалы на эту тему, у Шакина с Dr.Max-ом точно был видео выпуск (и не один) на эту тему, погружайтесь, определённые детали оттуда почерпнуть будет весьма полезно. 


√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Научим создавать: боты, парсеры, работать с профилями для ПФ, присоединяйтесь -> https://goo.su/LrCGj

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий