- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Кто-нибудь блочит по юзер-агентам, в которых нет "Mozilla"? Разумеется с правилом для игнорирования хороших ботов. Ради эксперимента сделал правило js challenge на небольшом буржуйском сайте и уже месяц полет нормальный. Понятно что всяких накрутчиков ПФ это не касается, но зато не нужно собирать коллекцию из сотни юзер-агентов очевидных ботов.
Из интересного заметил Mozlila - якобы известное семейство сканеров на уязвимости с опечаткой в юзер агенте, а также Dalvik - насколько понял с таким юзер агентом андроид пытается скачать файлы если стандартный браузер не справился. Еще старая Опера должна иметь Opera в UA, но я такого в логах еще не замечал. Всё остальное пока что бесполезные кравлеры.
Нет, какой в этом смысл?
Если у меня прописано вот такое правило, с действием Block, не отсекаю ли я этим реальных пользователей и белых ботов?
у норм гугл ботов надо смотреть PTR
Если у меня прописано вот такое правило, с действием Block, не отсекаю ли я этим реальных пользователей?
Добавьте в это правило AND и свой айпи и проверьте. По идее не отсекаете, просто фавиконка не загрузится (если она запрашивается).
Если у меня прописано вот такое правило, с действием Block, не отсекаю ли я этим реальных пользователей и белых ботов?
Ну я бы для начала уточнил.
А что именно вы хотите добиться этим правилом?
Ну я бы для начала уточнил.
А что именно вы хотите добиться этим правилом?
Вижу что по этому пути много обращений и навряд ли это реальные пользователи. Явно что долбятся боты.
Вижу что по этому пути много обращений и навряд ли это реальные пользователи. Явно что долбятся боты.
Если фавикон видите в отчетах клауда, по моим наблюдениям, он там появляется когда коннект не прошел проверку браузера.
Т.е. немного нелогично блокировать запрос к фавиконке в таком случае. Бот уже на сайт не попал. Да и не факт что у запроса с фавиконкой пустой реферер, после страницы клауда с проверкой.
А так вы таким правилом всего-лишь блочите загрузку иконки всем прямым заходам. Зачем-то.
У меня почему-то не работает блок на спамные сети.
У меня почему-то не работает блок на спамные сети.
Вам нужно использовать такое правило: (ip.geoip.asnum in {35048 204916 16509}) - тогда будет работать. Если будет совпадение по одной из сети - то блок.
А Ваше правило что Вы сделали работает так: пользователь должен одновременно зайти с трех сетей - тогда блокировка. Это невозможно.
Вам нужно использовать такое правило: (ip.geoip.asnum in {35048 204916 16509}) - тогда будет работать. Если будет совпадение по одной из сети - то блок.
А Ваше правило что Вы сделали работает так: пользователь должен одновременно зайти с трех сетей - тогда блокировка. Это невозможно.
Спасибо!