Одновременно куча ботов

H
На сайте с 03.02.2010
Offline
115
1117

Проблема:

есть vps приличное мощности, есть десяток сайтов, на сайтах в среднем по 2000-3000 страниц. Приходит на эти сайты одновременно 3-4 поисковых бота и каждый из них делает 3-4 запроса в секунду. В итоге vps'ка не справляется с нагрузкой, ведь кроме этих ботов надо и клиентов обслуживать.

Как вообще с этим справляются на shared хостингах где на одном сервере по 1000 сайтов и больше? Всётаки ограничивают им скорость?

"Тролль: Прочитал, обосрал, в бан. Прочитал, обосрал, в бан. Романтика." (с)
Andreyka
На сайте с 19.02.2005
Offline
822
#1

crawl-delay

Не стоит плодить сущности без необходимости
H
На сайте с 03.02.2010
Offline
115
#2

Не помогает, тот же гугл не учитывает crawl-delay для внутренних страниц, остальные боты тоже кладут на crawl-delay. Ahrefs, sape, все игнорируют...

Den73
На сайте с 26.06.2010
Offline
523
#3

access.log покажите если есть возможность.

бешеные и не адекватные это bingbot msnbot, помню пристали к клиенту и роняли его впс причем настойчиво с разных ип( ну а с остальными не когда прооблем не видел.

зы шаред хостинг намного мощнее дешевый впс поэтому нет проблем.

H
На сайте с 03.02.2010
Offline
115
#4

да а что смотреть access.log я и сам вижу, что от одного бота 3-4 запроса. Сейчас вот Ahrefs долбит, до этого bingbot долбил. Когда оба приходят вообще вилы.

шаред то мощнее вдс, я понимаю, но на шареде сколько сайтов? в десятки и сотни раз больше вдс. Как шаред справляется с этим?

Den73
На сайте с 26.06.2010
Offline
523
#5

какая разница сколько сайтов, да и сайты бывают разные, некоторые спокойно 100 паралельных запросов на бэкенд переварят а другие при 10-20 сделают плохо серверу.

на шараде обычно есть некие лимиты что бы 1 юзер не забрал все ресурсы сервера, ботам будет отдаваться к примеру 503 а остальные сайты у соседей будут как то пытаться работать.

нет не каких секретов, рубите ботов в nginx если вы считаете их бесполезными или увеличивайте ресурсы сервера что бы он мог справится с таким потоком запросов.

это самое простое, еще можно посмотреть в сторону оптимизации скриптов, кэширование.

[Удален]
#6

Den73, еще яндекс умеет бесится. Особенно на "очень красивых" сайтах ;)

M
На сайте с 09.02.2008
Offline
68
mlu
#7

Еще в том же nginx можно попробовать настроить модуль ngx_http_limit_req_module, с его помощью можно ограничивать кол-во запросов в секунду и или резать соединения или задерживать их. С помощью параметра burst можно настроить nginx так, чтобы он пропускал первый всплеск запросов, когда настоящий юзер заходит на сайт и качает остальные скрипты/цсс/картинки.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий