Какую задержку от ботов ставить?

DV
На сайте с 01.05.2010
Offline
644
1156

Пиление конфигов с целью снижения нагрузки привело к тому, что бэкэнд отрубается фронтом после нескольких рефрешей. Для статики ограничение мягче в десятки раз, чтобы всякие смайлики-слайдшоу успевали загрузиться. Всё вроде бы устраивает.

Только сомнение такое: как же роботы? Гугл, Яндекс, Сапа. Пожалуй, больше никого не надо пока.

VDS хостинг ( http://clck.ru/0u97l ) Нет нерешаемых задач ( https://searchengines.guru/ru/forum/806725 ) | Перенос сайтов на Drupal 7 с любых CMS. ( https://searchengines.guru/ru/forum/531842/page6#comment_10504844 )
M
На сайте с 01.12.2009
Offline
235
#1

Надо рассказать, что пилили, как пилили, какими умозаключениями вы пользовались.

Администратор Linux,Freebsd. построения крупных проектов.
DV
На сайте с 01.05.2010
Offline
644
#2

madoff, началось с того, что друпаловские сайты стали класть сервер. Разбирательство показало общую неустойчивость к нагрузкам. httpd жрал процессор. Там далеко не всё идеально, ещё буду копать. На данный момент, решил ограничить соединения средствами nginx, а именно, применением limit_req limit_req_zone.

Настройка ограничения для самого фронтэнда на данном уровне моего понимания проблемы устраивает. Т.е. прошёл по всем сайтам, удостоверился, что нет ошибок в загруке статики, сделал запас и на этом усполокоился.

Прокси локейшн получил такой конфиг:

limit_req_zone $binary_remote_addr zone=two:10m rate=2r/s;

limit_req zone=two burst=2 nodelay;

Крутил, чтобы и пользователям было комфортно, всё открывалось, и, в то же время, при серийной загрузке нескольких страниц был отказ. Чего, собственно, добился.

Вот сейчас смотрю в логах, Гугл шастает. Ошибок не выдаёт. Вопрос, хватит ли всем ботам такого? Критичны. само собой, Яндекс и Сапа. Есть бешенные пауки вроде MajesticSEO, которые не понимают директивы в robots, так их я наоборот хочу ограничить, т.к. толку от них нет.

Чувствую, хостеры таким не особо заморачиваются, это одиночкам нужно выжать из железа всё :)

zexis
На сайте с 09.08.2005
Offline
388
#3

Я так понимаю что фронтенд у вас NGINX ?

И вы ставите ограничение limit_

Смотрите в логах access.log и error.log кому выдается код ошибки 503 (превышен лимит)

И если видите что 503 ошибка выдается поисковым ботам, то повышайте лимиты.

У меня стоят такие параметры

limit_zone limz $binary_remote_addr 10m;

limit_conn limz 10;

limit_req_zone $binary_remote_addr zone=lphp:10m rate=1r/s;

location / {

limit_req zone=lphp burst=10 nodelay;

Боты яндекса и гугла такими лимитами не банятся.

Что касается бота сапы – то он слишком быстрый.

Иногда делает 20-50 запросов в секунду.

Но бот сапы забанить не так страшно, так как он будет запрашивать страницу много раз, пока в конце концов ее не получит.

DV
На сайте с 01.05.2010
Offline
644
#4

zexis, да, я примерно это и хотел услышать. Интересно, кто и как живёт с этой дилеммой.

Это у вас общее ограничение, или только на бэкэнд? У меня, как выше писал, отдельно настроено.

zexis
На сайте с 09.08.2005
Offline
388
#5

На локейшн со статикой я ограничений не ставлю.

Так как к статике запросов может быть очень много, да и нагрузки статика большой не создает.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий