- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собсна, взял Public Cloud на овх за 20 евро. Решил затестить защиту да и вообще стабильность. Ubuntu 16.04, Apache + Nginx, стоит на ISPmanager. После всех базовых настроек решил тестануть апачбенчем с другой впски (такой же). В итоге серв начинает лагать от такого:
ab -n 1000 -c 1000
При этом стоит перманентная митигация OVH, 0 реакции. Шлешь 1000 запросов в 1000 потоков и вообще пох. Да, разумеется это можно частично решить установив лимиты на число одновременных соединений и запросов в секунду с одного айпи, и тем не менее, все равно схватываю лютый лаг на 5-10 сек, пока не отфильтруется и не заблочится флудящий айпи (10 таких флудящих машин и конец как бы).
Раз OVH не спасает от такого флуда, что делать? Есть ли какие то варианты фильтра на уровне софта? Может какие особые настройки limit_req? Сейчас стоит лимит в 50 запросов в секунду и burst до 100 на весь сайт, ибо там дофига чего приходится подгружать, и с такой конфигураций ловишь нехилые лаги в начале теста. Думаю, ограничение 10 запросов в сек легко бы исправило это, но вот только сайт требует под 50 запросов при загрузке, ибо дофига картинок и скриптов.
limit_conn
Да, стоит 10. Правда какое оптимальное значение не понял.
Правда какое оптимальное значение не понял.
10 is good. Browsers do not make more than 6 parallel requests in total (including all static resources).
You can limit this value even to 1 per single IP, in backend location, however.
You can limit this value even to 1 per single IP, in backend location, however.
А вот о таком не читал никогда, можно подробнее? Как сделать и как отразится на пользователях?
Как сделать
В случае, если есть и html страницы, прописывать (php|html)? Это будет работать?
В случае, если есть и html страницы, прописывать (php|html)? Это будет работать?
Yes, It will. But html files are the static resource and they will not load your CPU in contrast of php scripts.
Note that I've show only an example. Your nginx location structure may differs.
Хорошо, а что будет с остальным контентом? Например если начать флуд на любой другой файл не php и не html? Для других файлов ограничение применяться не будет? Можно ли задать, например, 2 соединения для php и html, и 10 для всего остального? Что если начнуть флудить изображение, нарример? 🤪
Что если начнуть флудить изображение, нарример? 🤪
Yes, you can limit static resources too, but it's practically useless. Nginx works effectively.
l1mon, /ru/forum/comment/14885499