Напал робот, nginx умер

12
O3
На сайте с 17.11.2008
Offline
127
2123

Какая-то хрень без таймаута колбасит хост

проц 1.2 целерон (думал хватит).

nginx лежит.

Поставил 404 - один умер, остальные живы

"DigExt; DTS Agent" шо за хрень?

Наспамьте настройки для nginx по принципу экономии CPU

1. не реагировать на данный урл если 1 секунда таймаут не прошел (выпадет с ПС - ну и пофик, не будет ложить "хостинг")

2. фильтр на юзерагент (задолбал)

3. можно сказать нгиксу не давать одному вирт хосту жрать весь проц?

---------- Добавлено 06.10.2012 в 05:53 ----------

я в шоке, 50 миллисекунд 30 запросов

---------- Добавлено 06.10.2012 в 06:02 ----------



---------- Добавлено 06.10.2012 в 06:03 ----------

Убить ІР ?

HM
На сайте с 14.01.2012
Offline
223
#1

да, можно его смело банить - толку от него никакого. в сети много негативных отзывов о проделках этого бота

O3
На сайте с 17.11.2008
Offline
127
#2

по юзерагент или ір ?

HM
На сайте с 14.01.2012
Offline
223
#3

логичнее по юзерагенту.

/ru/forum/664595

O3
На сайте с 17.11.2008
Offline
127
#4

мне логичнее поспать

на проблематис хост поставил 404

я-офф

Andreyka
На сайте с 19.02.2005
Offline
822
#5

Ip в tarpit

Не стоит плодить сущности без необходимости
O3
На сайте с 17.11.2008
Offline
127
#6

07 утра, я спать.

zexis
На сайте с 09.08.2005
Offline
388
#7

ограничить директивами limit_ количество запросов

http://nginx.org/ru/docs/http/ngx_http_limit_req_module.html

пример

limit_req_zone $binary_remote_addr zone=lphp:10m rate=1r/s;

limit_zone limz $binary_remote_addr 10m;

limit_conn limz 10;

Ставится в location /

limit_req zone=lphp burst=10 nodelay;

Также можно автоматически банить такие IP на сутки анализом логов, обращайтесь, настрою.

M
На сайте с 16.09.2009
Offline
278
#8
zexis:
limit_req_zone $binary_remote_addr zone=lphp:10m rate=1r/s;
...
limit_req zone=lphp burst=10 nodelay;

Это для страничке о любимой кошечке подойдет, да. И только. В реальных условиях - и ограничение будет для / чересчур жестким (не говоря уже о поисковых ботах), и перлы вида fopen("http://мойсайт/урл") в скриптах каждого второго. Все "чуть сложнее" (с)

ТС можно посоветовать использовать его для конкретного UserAgent. Как говорится: "обращайтесь, настрою" (с)

zexis:
обращайтесь, настрою.

А потом ТС удивится почему у него посещаемость упала...

Абонементное сопровождение серверов (Debian) Отправить личное сообщение (), написать письмо ().
zexis
На сайте с 09.08.2005
Offline
388
#9

Myhand, ограничение в 1 запрос в секунду с разрешенным пиком в 20 запросов к динамическим страницам в большинстве случаев не создает проблем работы сайта.

В том числе для поисковых ботов.

Для сапы да, создать может. Бот сапы работает слишком быстро.

Также проблемы это ограничение создаст

1) На дебильных движках, где картинки генируруются динамически скриптом PHP

2) Если на сайте есть WEB чат.

В этом случае лимит придется повышать или же делать для часто запрашиваемых страниц отдельный локейш без лимита.

Я привел параметры директивы limit_ как пример, а не как жесткую рекомендацию.

Параметры Limit_ нужно иногда коректировать для разных сайтов.

M
На сайте с 16.09.2009
Offline
278
#10
zexis:
Myhand, ограничение в 1 запрос в секунду с разрешенным пиком в 20 запросов к динамическим страницам в большинстве случаев не создает проблем работы сайта.

Было 10 - стало 20. Мелочь, а неприятно. Плюс, / - это не динамические страницы. Это все, в т.ч. статика. Как правило.

Ну ладно, у меня видать "меньшинство" - спорить не буду.

zexis:
Также проблемы это ограничение создаст

Я могу еще штук десять придумать, помимо указанных выше и ваших.

zexis:
В этом случае лимит придется повышать

В этом случае - лучше лимитировать именно то, что нужно лимитировать. Конкретно ТС - сделать лимит для данного UserAgent.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий