- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Ещё хочу добавить, что снижение скорости произошло после создания правил в разделе WAF, очень много было ботов, сейчас роботность упала и скорость тоже. Может ли из-за этих правил быть падение скорости?
Так а отменить внесенные правила и измерить скорость. Не?)
Всем привет. Подскажите, пожалуйста, если нужно так много замороченных настроек делать, зачем тогда там модуль «Security - Bots»? Нигде не нашёл, нужно ли его включать? Что можете сказать по его поводу? Можно ли обойтись только им? Если делать все эти настройки по инструкции, надо ли включать его?
Всем привет. Подскажите, пожалуйста, если нужно так много замороченных настроек делать, зачем тогда там модуль «Security - Bots»? Нигде не нашёл, нужно ли его включать? Что можете сказать по его поводу? Можно ли обойтись только им? Если делать все эти настройки по инструкции, надо ли включать его?
Нет, разные bot mode в Cloudflare от прогревающих и спам ботов не спасут, для фильтрации нужно создавать правила.
Видимо такой бототраф болезнь рунета...
Так а отменить внесенные правила и измерить скорость. Не?)
Если отменить или отключить правила, то сразу полезут боты. Скорость же если и изменится, то не сразу, это не быстрый процесс, надо будет ждать приблизительно 1-2 дня. Поэтому отключать правила нежелательно.
Странно, отключаю правила выше http1 и гуглбот в вебмастере не выдает при сканировании страницы 403 ошибку, с включенным, выдает. Хотя вчера было все нормально, ничего не менял.
Вот такое правило для HTTP+
(not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "") or (http.request.uri contains "utm")
(not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"})
Я проверку (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) убрал, т.к все равно основной спам идет через прямые заходы.
И проверку на спам в UTM перенести в правило с блокировкой. Много таких ботов проходят проверку Managed Challenge и из переходов по рекламе просто переходят во внутренние.
Я проверку (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) убрал, т.к все равно основной спам идет через прямые заходы.
И проверку на спам в UTM перенести в правило с блокировкой. Много таких ботов проходят проверку Managed Challenge и из переходов по рекламе просто переходят во внутренние.
Не, я не буду убирать, 20к за 24 часа всякого шлака по http1 :) Просто интересно, вчера работало, сегодня нет. Даже ASN 15169 Google добавил в белые боты и все ровно 403 при проверке страницы на сайте. Хммм... чудеса.
Я проверку (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) убрал, т.к все равно основной спам идет через прямые заходы.
И проверку на спам в UTM перенести в правило с блокировкой. Много таких ботов проходят проверку Managed Challenge и из переходов по рекламе просто переходят во внутренние.
Здравствуйте!
Можете подсказать какой написать код правила и в какое правило лучше добавить? У меня тоже проблема с прямыми заходами и внутренними переходами.
Странно, отключаю правила выше http1 и гуглбот в вебмастере не выдает при сканировании страницы 403 ошибку, с включенным, выдает. Хотя вчера было все нормально, ничего не менял.
Вот такое правило для HTTP+
(not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "") or (http.request.uri contains "utm")
Точно, сломался CF. Никакие исключения не работают, чтобы Google-InspectionTool/1.0 не блокировался. В яндекс ответ от сервера 200 ОК, а чтобы в индекс новую страницу загнать в Google, выдает 403
П.С. (ред) В общем если удалить правило "пустой рефере", то норм боты проходят 200ок. Хотя тсранно работало до этого все. В чем причина то ? знает кто?))