sagamorr

Рейтинг
235
Регистрация
12.10.2012
11
Анастасия Громова #:

Поставила CloudFlare, но теперь оставшаяся часть ботов помечается как внутренние отказники (скрин). Подскажите, как от них избавиться?


Это наверное с правила, где проверка IPV6, у вас она включена?
Biomusor #:

Вывод капчи стоит (  interactive challenge ), добавил ASN мегафона в капчу сейчас, так как utm_медиум основной с мегафона. Странно, что по первому правилу не сработало, где просто utm  contains. Больше 100 в месяц, это чистый траф как по мне))) У меня 400 в сутки, которые попали в правила WAF CF на вывод качпи :D

Скиньте правило скрин как вы сделали utm contains.
SSA.RU #:

нет, все распределено равномерно, ну главная конечно имеет больше относительно других, но не критично, ну например главная 300 заходов, а дальше идет 200 , 200, 180 и плавно понятно, много страниц имеют большое кол-во заходов.  Сайт имеет много ключей в топе типа "натяжные потолки фото", "жидкие обои" и тп, и постоянно бывают всплески то там то сям, по натяжным потолкам легко может в какой то день раза в два скакануть и так со всеми.

пс: речь не о сайте в нике

Посмотрите внутренние, на которые идут много заходов, это как правило 1 или несколько сеток. Попробуйте заблокировать по условию: пустой реферер+вхождение url+as num
Biomusor #:

Да устал я с ними бороться. Закрываешь прямые, идут во внутренние, ставишь качпу на внутренние, идут по UTM... Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик. Расдраконил только ботов), теперь их больше стало, чем до CF :) 

Вопрос, почему они прут по UTM, если настроено правило URI > contains > utm  ?


У вас для спама по UTM стоит Managed Challenge?

У меня отсекло практически все, в месяц проходят не более 10, раньше было больше 100.

SSA.RU #:

по итогу суток, удалось снизить на 14% сейчас кол-во прямых заходов 23% было в районе 37% до фильтрации, правда оно само по себе снизилось до того как я бороться с этим начал. По метрике за месяц 47%, т.е. оно само снизилось на 10% без каких либо действий.

У вас большая часть прямых идет на главную или есть какие то популярные внутренние?
KeicH2O #:

Точно? Я что то вставляю прямую ссылку  https:// domain.com/category/page-1 и сразу проверка идет капча, или я не так что то понял?)

Заранее спрошу) Вот так прописывать вы имели ввиду ниже в комментах рефер домена???


Да, я так поставил, только не equals, а contains.
RomarioSpirtberg #:

Попробовал поставить код правила: (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"} and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}) or (http.referer eq "" and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}), всё равно выдаёт ошибки и при проверке модуля Яндекс.Маркет и в https://bertal.ru/.

Нужно добавить в первое правило, где исключения.


RomarioSpirtberg #:

 Всем доброго времени суток!

Тоже настраивал фильтрацию ботов через CloudFlare по видео и статье  Ивана Зимина. Возникает следующая ситуация: если включить третье правило ( Блокировка трафика из протокола HTTP1.1, код  (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")), то при проверке модуля Яндекс.Маркет в админке сайта (сайт на Битрикс), с помошью которого создаются фиды для Поиска по товарам в Яндексе, выдаёт ошибку и в Вебмастере потом эти фиды блокируются. Также, если при включенном третьем правиле проверить любую страницу сайта в сервисе https://bertal.ru/, то код ответа 403, т. е. заблокировано. Выключаешь это правило, модуль Яндекс.Маркет не выдаёт ошибку и в сервисе https://bertal.ru/ код ответа - 200.

Может кто-нибудь сталкивался с подобной ситуацией и может подсказать что надо написать в этом правиле? И вообще нужно ли это правило или можно обойтись без него?

По умолчанию все боты, кроме Known Bots блокируются. Запустите ваш сервис и после этого найдите этот визит в разделе WAF->Events.

Если сервис добавляет свое название в user agent, то в исключении добавляете проверку на вхождение названия, как для mail_ru сделано.

Если по User agent никак не идентифицировать, то сделайте исключение на AS сеть или IP.

Для Яндекса нужно добавить в исключения сети: 13238 и 208722.

izummm #:
Добрый вечер. Подскажите, я так понимаю дубли страниц  с таким окончанием адресов __cf_chl_tk=.zLpe92OGFOmnFr7FDmZoEXKToOR19M23eNuzUB1d7Y-1682860553-0-gaNycGzNDGU это проделки CF? Редирект 301 поможет? И от чего страницы появляются? Нашел только пару ответов на буржуа, но тоже размыто как-то, вроде появляются при включении режима досс атаки. А если ее не включать дубли будут появлятся?
Там таких страниц единицы, видимо счетчик раньше подгружается, чем заканчивается JS проверка.
Biomusor #:

Т.е есть нет смысла если таких страниц сотни? Не добавлять же каждую в правила и сидеть днями и вычислять такие страницы

Нет, можно просто по вхождению домена в реферер проверять.
Всего: 1952