- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Заблокируйте IP и будет Вам радость.
Также установите на WP плагин WP File Cache.
Заблокируйте IP и будет Вам радость.
Также установите на WP плагин WP File Cache.
зачем блокировать? во первых придут другие... а во вторых если заблокирует то вызов apache все равно проходит.
ну и советы
а во вторых если заблокирует то вызов apache все равно проходит.
Ну.. зато загрузка WP со всеми плагинами не проходит..
На шареде не так много вариантов ведь:
- Поинтересоваться у хостера, можно ли ограничить количество обращений в секунду. (mod_limitconn.. если nginx фронтендом стоит - про limit_req спросить)
- в RewriteCond по %{USER_AGENT} проверять... так, например:
RewriteRule .* - [L,F]
это не поможет.
"правильные" роботы слушаются. А неправильных - в бан.. Другое дело, что он может User Agent-а поменять.. или вообще не передавать..
ivan-lev
там за всем не уследишь это же костыли по сути, проще сменить тариф на более подходящий.
а если все же что то делать то нужно проанализировать все логи например за неделю, то что привел тс этого явно недостаточно.
""правильные" роботы слушаются."
а толку, это же просто интервал запросов, сколько им нужно сделать request - столько они и сделают все равно просто с другим интервалом.
используемые ресурсы пользователем будут такие же в итоге.
Den73, не уверен, что мы друг друга поняли.
а толку, это же просто интервал запросов, сколько им нужно сделать request - столько они и сделают все равно просто с другим интервалом.
Робот может и сделает то же количество обращений, но он не будет одномоментно (с короткими промежутками, пока сервер не успел обработать, добавлять ему ещё пару) грузить сервер кучей запросов. Всплесков не будет.
используемые ресурсы пользователем будут такие же в итоге.
Используемые ресурсы в единицу времени уменьшатся при уменьшении request per second (или увеличении таймаута между запросами, что по сути одно и то же)
Den73, не уверен, что мы друг друга поняли.
Робот может и сделает то же количество обращений, но он не будет одномоментно (с короткими промежутками, пока сервер не успел обработать, добавлять ему ещё пару) грузить сервер кучей запросов. Всплесков не будет.
Используемые ресурсы в единицу времени уменьшатся при уменьшении request per second (или увеличении таймаута между запросами, что по сути одно и то же)
но у хостеров единица времени например явно не минута, обычно cpu собирают штатными средствами ядра OS - системный аккаунтинг, ротацию делают обычно раз в час а результаты выводят суточные в таком случае я не понимаю как увеличение интервала может повлиять на исп. ресурсов в целом скорее всего просто размажет нагрузку.
можно конечно протестировать и посмотреть, но если у хостера совсем другие алгоритмы и инструменты то мы может только делать предположения.
Интервал всё равно поисковый бот сам выберет.
я не понимаю как увеличение интервала может повлиять на исп. ресурсов в целом.
Запустить у себя на не слишком громадных мощностях ab (или что-нибудь более "разнобойное" - loadimpact пользовался) с разными параметрами (per second) и посмотреть... Когда куча запросов к apache и к mysql будут в очереди висеть - думаю, понимание придёт. Даже после завершения "атаки бота"...
p.s. у меня ощущение, что я как-то не совсем понятно изъясняюсь.. Эт я могу..
ivan-lev
я понял о чем вы, на сервере без жесткого оверсела все это будет бесполезно там например 20 rps или 1 rps обрабатывается одинаково быстро.
настройте роботс и ограничьте количество роботов для доступа к сайту.
Уточните или стоит банальный плагин кеширования на сайте (например суперкеш).
на уровне хостера необходимо блокировать ИПы который больше всего делают запросов, например с Вашего куска видно, что это 198.143.187.114
Вообще непонятно, что это за контора http://dnsstuff.hostpro.ua/index.php?fIPInformation=198.143.187.114