- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
По умолчанию все боты, кроме Known Bots блокируются. Запустите ваш сервис и после этого найдите этот визит в разделе WAF->Events.
Если сервис добавляет свое название в user agent, то в исключении добавляете проверку на вхождение названия, как для mail_ru сделано.
Если по User agent никак не идентифицировать, то сделайте исключение на AS сеть или IP.
Для Яндекса нужно добавить в исключения сети: 13238 и 208722.
Попробовал поставить код правила: (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"} and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}) or (http.referer eq "" and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}), всё равно выдаёт ошибки и при проверке модуля Яндекс.Маркет и в https://bertal.ru/.
Попробовал поставить код правила: (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"} and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}) or (http.referer eq "" and not ip.geoip.asnum in {13238} and not ip.geoip.asnum in {208722}), всё равно выдаёт ошибки и при проверке модуля Яндекс.Маркет и в https://bertal.ru/.
Нужно добавить в первое правило, где исключения.
Нашел "дыру" для ботов которые идут через прямые заходы.
В статье на vc.ru, в правиле настроена проверка на пустого реферера, а у каких то ботов в этом параметре стоит полный url посещаемой страницы: https:// domain.com/category/page-1
Cloudflare такой визит не проверяет, а в метрику он подгружается как прямой заход.
Точно? Я что то вставляю прямую ссылку https:// domain.com/category/page-1 и сразу проверка идет капча, или я не так что то понял?)
Заранее спрошу) Вот так прописывать вы имели ввиду ниже в комментах рефер домена???
Точно? Я что то вставляю прямую ссылку https:// domain.com/category/page-1 и сразу проверка идет капча, или я не так что то понял?)
Заранее спрошу) Вот так прописывать вы имели ввиду ниже в комментах рефер домена???
Да устал я с ними бороться. Закрываешь прямые, идут во внутренние, ставишь качпу на внутренние, идут по UTM... Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик. Расдраконил только ботов), теперь их больше стало, чем до CF :)
Вопрос, почему они прут по UTM, если настроено правило URI > contains > utm ?
Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик.
По IPv6 нормальный трафик?
Да устал я с ними бороться. Закрываешь прямые, идут во внутренние, ставишь качпу на внутренние, идут по UTM... Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик. Расдраконил только ботов), теперь их больше стало, чем до CF :)
Вопрос, почему они прут по UTM, если настроено правило URI > contains > utm ?
Четко сказано. Даже добавить нечего. Достали боты.
Да устал я с ними бороться. Закрываешь прямые, идут во внутренние, ставишь качпу на внутренние, идут по UTM... Отключаешь IPv6, вроде нормально, но теряешь нормальный трафик. Расдраконил только ботов), теперь их больше стало, чем до CF :)
Вопрос, почему они прут по UTM, если настроено правило URI > contains > utm ?
У вас для спама по UTM стоит Managed Challenge?
У меня отсекло практически все, в месяц проходят не более 10, раньше было больше 100.