- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Какие-то влажные фантазии на тему "я один способен в этом разобраться".
По факту при средней посещаемости по метрике ~1100 хостов cloudflare показывает, что отфильтровал 2300 ботов менее чем за сутки из которых около 900 мегафоновских + ртк через капчу. Только вот посещаемость по той же метрике уменьшилась на 2%, т.е. в районе погрешности. Т.е. фильтрует он максимум то, что и так фильтровалось элементарными скриптами и настройками в htaccess, либо и так не учитывалось метрикой.
Кроме влажных фантазий, в этом сблёве так и не обнаружен ответ на вопрос, который задавался уже дважды.Каким образом была настроена фильтрация? Включением бесполезного режима Under Attack?
Не 2300 ботов, а 2300 коннектов. Которые по факту могли быть сгенерированы одним-двумя айпишниками.
Чуть ранее приведен скрин, с 98% зафильтрованных ботов. Аналогично по трафику, у меня есть примеры когда после настройки клауда трафик по метрике падает почти на 95%.
А что есть у вас, кроме ла-ла-ла? По делу есть что сказать?
Уже половина трафика хрен знает что. Особенно мне нравятся переходы по рекламе. Сайт информационный, я его никогда не рекламировал.
Вот можно себе увлекательное чтиво по теме, на 50 страниц, организовать.
https://searchengines.guru/ru/forum/1075193
Провёл эксперимент, запретив все заходы с сайтов не из белого списка. Список этот составлен с 95-99% точностью, т.к. информация на моём подопытном сайте специализированная и переходят на неё из небольшого количества источников (около 15). В итоге роботность по мнению метрики выросла со стандартных 4% до 12%, т.е. она не только этих ботов за ботов не считает, но и хз к каким последствиям эта борьба может в итоге привести.
От блокировки сотен прямых заходов (да еще с высоким уровнем отказом и не большим временем на сайте) сайту точно хуже не будет.
По нормальной логике да, но по метрике спорно пока что.
А подскажите, идут на главную страницу? Бот трафик идёт равномерно каждый день или разные скачки? Делают отказы? Просто любопытно, я думал такой вид нагула уже как года два
Идут на все страницы, равномерно каждый день. Отказы не делают, все засчитываются как "не отказ". Прикол в том, что даже есть какие-то поведенческие - клики, скроллы и т.д.
Забанить всех посетителей андроид+хром, весь мобильный мегафон-йота, билайн, а также ртк.
Смотрю один из сайтов, метрика показывает 4-5% роботов. Даже при беглом просмотре вижу, что там смело все 40%, т.е. по факту может быть до 60%. 😀
Это слишком, много уников отрежется
Это слишком, много уников отрежется