- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах](https://d.searchengines.guru/20/96/ugc_review_600x314__bfee5e06.jpg)
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
![Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта](https://d.searchengines.guru/20/96/delete-button-keyboard_600x314__3661c0be.jpg)
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. Изначально добился позиций интернет магазина по в.ч. запросам до ТОП-1 – ТОП-3. Было немного товаров, решил расширить ассортимент, добавить прям все-все чем торгуем (стройматериалы) и без атрибутов, а каждый цвет (или другое) отдельным товаром. Стало удобно пользоваться фильтром, но количество товаров увеличилось с 500 до 15000. Естественно описание товаров было минимальным и очень схожим (могло отличаться одно слово или цифра). Какое-то время я держался первым, а потом поплыл вниз. Конкуренты делали подробные описания всех товаров, а у меня получился "гоVносайт" с точки зрения гугла, хотя с практической точки зрения благодаря наличию фильтра и продуманных всех характеристик равных ему нет. Но гуглу это не нужно, ему нужен контент.
Ну я начал добавлять товары с объемным контентом, и опять выстрелил вверх, но, из 10 страниц добавилось 2 и все... сайт не индексируется. Залез в консоль, а там в очереди на индексацию 4000+ страниц... И тут я решил что гоVностраницы нужно "жахнуть" чтоб был ресурс для индексации, а то поисковик уже просто не успевает, и сделать все товары красивенькие, с атрибутами и 100% уникальностью чтоб поднять качество сайта. Как только я "жахнул" все плохое, все новое начало индексироваться но сайт улетел с позиций в 40+ и уже почти год как там. На сайте за это время куча нового супер контента на 5000+ зн. с оригинальными изображениями, и эти странице в топе, но в.ч. запросы по прежнему 40+ и стоят на месте. В консоле 6000 ошибок 404 и они ну ооочень медленно от туда уходят. Я думал сайт слетит на время, потом 404 уйдут и все восстановится, но уже очень много время прошло, подозреваю что нужно что-то делать. Вопрос – что? Я могу из бэкапа восстановить все удаленные говVостраницы, но поможет ли это? Или сделает еще хуже?
подозреваю что нужно что-то делать. Вопрос – что?
Проверять насколько корректно решены все технические вопросы по оптимизации индексирования которые влияют на краулинговый бюджет, а именно:
1) Корректная генерация XML карты сайта с правильными датами обновления и передачи данных в <lastmod>
2) Закрыть для индексации всё служебно-ненужное, проверить возможные дубли движка (удалить, убрать лишние выводы, закрыть индексацию)
3) При вашем объёме актуальна поддержка Last-Modified и Last-Modified-Since - разобраться что это такое и также внедрить
4) Физически пройтись программным краулером по сайту (например, Screaming Frog) на предмет возможных циклических адресаций, битых ссылок и т.д.
5) Использовать Indexing API (в том числе и не постоянной основе) для удаления/обновления требуемых URL (в Консоле возьмёте конкретику по URL адресам)
6) Уже факультативно - проверьте/внедрите (если её нет) - перелинковку.
7) В особых случаях надо смотреть по логам куда долбиться Гугл. Если он постоянно долбиться на какие-то отдельные страницы, тоже надо разбираться по ситуации, почему это происходит - тут по обстоятельствам.
8) Проверить разницу межу содержанием отрендеренной страницы и неотрендеренной (Screaming Frog позволяет это сделать).
По хорошему, надо проводить техническую ревизию вашего сайта, наверняка есть проблемы, которые могут быть для вас в слепой зоне.
Всё вышеуказанное влияет на поисковую квоту (на краулинговый бюджет). Поищите материалы на эту тему, у Шакина с Dr.Max-ом точно был видео выпуск (и не один) на эту тему, погружайтесь, определённые детали оттуда почерпнуть будет весьма полезно.