ограничить гуглобота в нгикс

K5
На сайте с 21.07.2010
Offline
209
675

чего то торкнуло этого товарища

66.249.69.*** (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

Crawl-delay: 10 в robots.txt не реагирует

идет примерно 2 запроса в секунду

хочется в нгикс жестко ограничить


http{
...
limit_req_zone $binary_remote_addr zone=two:10m rate=6r/m;
...
server {
...
location{
...
if ($http_user_agent ~* (bingbot|Googlebot|YandexBot)){
limit_req zone=two burst=12;
}
}
}
}

но нгикс не воспринимает такую конструкцию

nginx: [emerg] "limit_req" directive is not allowed here in

как ограничить количество запросов ботов используя допустим юзер-агент?

P.S. Andreyka так статью и не выложил /ru/forum/787626

аська 45два48499два записки на работе (http://memoryhigh.ru) помогу с сайтом, удалю вирусы, настрою впс -> отзывы ТУТ (/ru/forum/836248) и ТАМ (http://www.maultalk.com/topic140187.html) !!!всегда проверяйте данные людей, которые сами пишут вам в аську или скайп!!!
zexis
На сайте с 09.08.2005
Offline
388
#1

С помощью директивы map устанавливайте значение переменной используемой в limit_req_zone

Что то вроде этого.

map $val $val_key {

0 '';

1 $binary_remote_addr;

}

limit_req_zone $val_key zone=lphp:10m rate=1r/s;

ValdisRu
На сайте с 02.10.2006
Offline
139
#2

я не думаю что это хорошая идея (это приведет к ошибкам сканирования сайта)

в центре вебмастеров (или как там оно сейчас называется) https://www.google.com/webmasters/tools/settings?hl=ru&siteUrl=http://yoursite.com/ можно установить скорость сканирования сайта гуглоботом (раньше лично я так делал - нормально работало)

Обалденный заработок на социальных сетях (https://goo.gl/Qtsq6M)
K5
На сайте с 21.07.2010
Offline
209
#3
я не думаю что это хорошая идея

ValdisRu он и robors.txt должен учитывать, приходится жестко ограничивать

проставил в гугл-вебмастер 0.1 запроса в секунду, посмотрим отреагирует ли

zexis спасибо, нашел статью с аналогичным примером

I
На сайте с 04.11.2014
Offline
3
#4

kgtu5, отключите сайт от интернета. Зачем вам посетители на нем, они же ресурсы жрут своими просмотрами. А поисковый трафик вообще зло..

{сарказм}

M
На сайте с 30.08.2010
Offline
92
#5

crawl-delay в robots.txt

K5
На сайте с 21.07.2010
Offline
209
#6

megadimon, читаем 1й пост внимательно

ди а в инструментах проверки robots.txt гугловебмастера четко написано:

ixep, смешно 😡

Andreyka
На сайте с 19.02.2005
Offline
822
#7

Как разгребусь с насущными проблемами - выложу статью как это делать.

Не стоит плодить сущности без необходимости

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий