Поставила CloudFlare, но теперь оставшаяся часть ботов помечается как внутренние отказники (скрин). Подскажите, как от них избавиться?
Вывод капчи стоит ( interactive challenge ), добавил ASN мегафона в капчу сейчас, так как utm_медиум основной с мегафона. Странно, что по первому правилу не сработало, где просто utm contains. Больше 100 в месяц, это чистый траф как по мне))) У меня 400 в сутки, которые попали в правила WAF CF на вывод качпи :D
нет, все распределено равномерно, ну главная конечно имеет больше относительно других, но не критично, ну например главная 300 заходов, а дальше идет 200 , 200, 180 и плавно понятно, много страниц имеют большое кол-во заходов. Сайт имеет много ключей в топе типа "натяжные потолки фото", "жидкие обои" и тп, и постоянно бывают всплески то там то сям, по натяжным потолкам легко может в какой то день раза в два скакануть и так со всеми.
пс: речь не о сайте в нике
Да устал я с ними бороться. Закрываешь прямые, идут во внутренние, ставишь качпу на внутренние, идут по UTM... Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик. Расдраконил только ботов), теперь их больше стало, чем до CF :)
Вопрос, почему они прут по UTM, если настроено правило URI > contains > utm ?
У вас для спама по UTM стоит Managed Challenge?
У меня отсекло практически все, в месяц проходят не более 10, раньше было больше 100.
по итогу суток, удалось снизить на 14% сейчас кол-во прямых заходов 23% было в районе 37% до фильтрации, правда оно само по себе снизилось до того как я бороться с этим начал. По метрике за месяц 47%, т.е. оно само снизилось на 10% без каких либо действий.
Точно? Я что то вставляю прямую ссылку https:// domain.com/category/page-1 и сразу проверка идет капча, или я не так что то понял?)
Заранее спрошу) Вот так прописывать вы имели ввиду ниже в комментах рефер домена???
Попробовал поставить код правила: (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"} and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}) or (http.referer eq "" and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}), всё равно выдаёт ошибки и при проверке модуля Яндекс.Маркет и в https://bertal.ru/.
Нужно добавить в первое правило, где исключения.
Всем доброго времени суток!
Тоже настраивал фильтрацию ботов через CloudFlare по видео и статье Ивана Зимина. Возникает следующая ситуация: если включить третье правило ( Блокировка трафика из протокола HTTP1.1, код (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")), то при проверке модуля Яндекс.Маркет в админке сайта (сайт на Битрикс), с помошью которого создаются фиды для Поиска по товарам в Яндексе, выдаёт ошибку и в Вебмастере потом эти фиды блокируются. Также, если при включенном третьем правиле проверить любую страницу сайта в сервисе https://bertal.ru/, то код ответа 403, т. е. заблокировано. Выключаешь это правило, модуль Яндекс.Маркет не выдаёт ошибку и в сервисе https://bertal.ru/ код ответа - 200.
Может кто-нибудь сталкивался с подобной ситуацией и может подсказать что надо написать в этом правиле? И вообще нужно ли это правило или можно обойтись без него?
По умолчанию все боты, кроме Known Bots блокируются. Запустите ваш сервис и после этого найдите этот визит в разделе WAF->Events.
Если сервис добавляет свое название в user agent, то в исключении добавляете проверку на вхождение названия, как для mail_ru сделано.
Если по User agent никак не идентифицировать, то сделайте исключение на AS сеть или IP.
Для Яндекса нужно добавить в исключения сети: 13238 и 208722.
Т.е есть нет смысла если таких страниц сотни? Не добавлять же каждую в правила и сидеть днями и вычислять такие страницы