Кстати код что я писал выше нерабочий.
у меня есть еще одна директива
Вот она и отшибала иногда ботов
а вот этот код
Позволяет делать запросы чаще 1 раза в минуту с 1 айпи
Решил я дальше поэксперементировать с map, тестировать решил на бесполезном бинге
добавил еще один мап
то что добавил выделил жирным. Смотрю по логам бот бинга не тормозится. Где ошибка?
Задача не затормозить бинга (он тестовая жертва), а научиться добавлять несколько условий в мап, сейчас пробую совместить
$server_protocol и $http_user_agent
В http
в сервер
Прошло 2 часа, просмотрел логи - отсеивает ботов.
Одно не понятно - не всегда отшибает их 503 ошибкой иногда 499. Что это за код не понял
Да, код работает, Андрейска спасибо за пример!
Они все померли :))) тк что пофигу СМИ или роза, искать нужно по трешу
Проблема в том что я близко не кодер, и с трудом перевариваю примеры по ссылкам.
так правильно?
Да, персонажи начали меняться, но лавочку с транслитом вроде закрыли.
Сейчас наибольее актуально искать так:
умер/умерла/погиб/погибла/скончался/скончалась
Будут ходить по http 1.1 если ботов настраивают специально под меня, но там я уверен больше половины нечести просто автоматические сканеры всего и вся.
Никто их не будет переделывать
Леня, неверю!!! Ну ведь простое условие
неужели никак нельзя прилипть к нему limit_req zone ?
Вот только сегодня с утра до 12 дня - 11587 запросов по HTTP/1.0 - сгруппировал все апи, пробил, сплошь парсеры и спамботы.
Было бы все же здорово затормозить эту нечисть.