Den73

Den73
Рейтинг
523
Регистрация
26.06.2010

а в чем вообще проблема? полежит и вернется.

kkolorid:
Многие хостинги не хотят брать к себе пирамиду, что делать?

правильно делают

Melanxolik:
4000Рублей оО
да за эти деньги можно дедик и спать спокойно.

не правда, что бы спать спокойно нужно еще админа к дедику прикупить а это не меньше 100$ только за присмотр.

ivan-lev

я понял о чем вы, на сервере без жесткого оверсела все это будет бесполезно там например 20 rps или 1 rps обрабатывается одинаково быстро.

ivan-lev:
Den73, не уверен, что мы друг друга поняли.


Робот может и сделает то же количество обращений, но он не будет одномоментно (с короткими промежутками, пока сервер не успел обработать, добавлять ему ещё пару) грузить сервер кучей запросов. Всплесков не будет.


Используемые ресурсы в единицу времени уменьшатся при уменьшении request per second (или увеличении таймаута между запросами, что по сути одно и то же)

но у хостеров единица времени например явно не минута, обычно cpu собирают штатными средствами ядра OS - системный аккаунтинг, ротацию делают обычно раз в час а результаты выводят суточные в таком случае я не понимаю как увеличение интервала может повлиять на исп. ресурсов в целом скорее всего просто размажет нагрузку.

можно конечно протестировать и посмотреть, но если у хостера совсем другие алгоритмы и инструменты то мы может только делать предположения.

ivan-lev

там за всем не уследишь это же костыли по сути, проще сменить тариф на более подходящий.

а если все же что то делать то нужно проанализировать все логи например за неделю, то что привел тс этого явно недостаточно.

""правильные" роботы слушаются."

а толку, это же просто интервал запросов, сколько им нужно сделать request - столько они и сделают все равно просто с другим интервалом.

используемые ресурсы пользователем будут такие же в итоге.

internetspace:
Заблокируйте IP и будет Вам радость.
Также установите на WP плагин WP File Cache.

зачем блокировать? во первых придут другие... а во вторых если заблокирует то вызов apache все равно проходит.

ну и советы

simson:
Временно можно добавить в роботс
Crawl-delay: 20

это не поможет.

servts:
Любой хостинг + ovh cdn и вы защищены. За трафик больше 1 Тб только надо будет платить.
http://www.ovh.ie/cdn/ - 10 евро + vps.
Если надо можем помочь.

не правда, там нет нормальной защиты и тем более на layer7.

torg:
Надо на уровне хостеров банить лишних ботов.
Оставить яндекс, рамблер, альтависта, яху, гугл и др самых основных.
В других поисковиках смысла нет. Вот будет достойный поисковик значит включить в белый список. Эти роботы мешают жить людям на хостингах. Сервер нагружают бессмысленной нагрузкой.

на уровне хостера так нельзя делать, вообще на шараде ограничивать клиентские ресурсы в чем то это очень плохой тон.

вот если вынести в отдельный функционал что бы клиенты могли сами управлять то это годиться.

Всего: 7715