- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уже месяц число сканированных страниц в день в графике GSC бьет рекорды.
При том, что на сайте всего ~400 страниц. График загруженных за день килобайтов тоже вырос. На сайте работы ведутся, но ничего, что могло бы спровоцировать такое, вроде не делалось.
Гугл начал считать за страницы файлы скриптов, стилей и картинки?
Кто-нибудь сталкивался с таким?
Сайт на взлом проверьте.
Всё ок, проверяется регулярно, никаких намеков на взлом нет.
В GSC проверьте, в сайтмапе сколько страниц?
GlebEGA, урл сайта покажите.
Jimmy, 466 страниц в sitemap.
Аномалия прекратилась, кстати, 5 марта.
Вы бы адреса проверили для начала, что у вас затягивает в индекс. А так - гадание на кофейной гуще. Это может быть:
1. Взломали и залили дор.
2. Кривая настройка или вовсе отсутствие защиты GET-параметров от индексации.
3. Слетели настройки PHP и в индекс затянуло тучу URL-ов, где идентификатор сессии передается как GET-параметр.
...
что у вас затягивает в индекс
В том-то и дело, что ничего лишнего в индекс не попадает, иначе было бы ясно, куда копать.
Судя по всему, действительно, Google игнорировал запрет на обработку урлов с гет-параметрами (на сайте есть калькулятор).