Нагрузка на CPU, возможно ли такое

12
dspu
На сайте с 10.05.2006
Offline
268
#11

у меня были терки с sweb по такому же вопросу, причем нагрузка быда несистемной - от посещаемости не зависела, решил ограничением для бота yahoo:

User-agent: Slurp

Crawl-delay: 1000

ботик грузил трафа раз в 5 больше чем все остальные роботы и посетители вместе взятые 😮 теперь все ок

Andreyka
На сайте с 19.02.2005
Offline
822
#12

Элементарно. Берем PID'ы httpd, которые отдают статику и считаем на них тики CPU.

Не стоит плодить сущности без необходимости
K
На сайте с 24.03.2004
Offline
223
#13
Andreyka:
Элементарно. Берем PID'ы httpd, которые отдают статику и считаем на них тики CPU.

т.е. прикручиваем пач на апач?

проверенная ддос защита (http://ddos-protection.ru) -> http://ddos-protection.ru (http://ddos-protection.ru), бесплатный тест, цена от размера атаки не зависит.
Maxi21
На сайте с 07.12.2006
Offline
225
#14
HruPifPaf:
...
Также вас могли взломать и разместить скрипты которые нагружают сервер.
В обычной ситуации Apache может много памяти использовать для обработки HMTL но никак не CPU. Но все зависит от пиковой посещаемости.

Что там в html можно сломать, интересно? 😂

Google ;) (http://google.com)
Andreyka
На сайте с 19.02.2005
Offline
822
#15
kostich:
т.е. прикручиваем пач на апач?

Зачем? status парсить можно

Surok97
На сайте с 26.04.2007
Offline
120
#16

Тоже такая проблема с нагрузкой возникла, целый год все было нормально, практически ничего не менял и посещаемость не выросла, а сайты стали вырубать каждый день, причем всегда в ночное время. где то с часу до двух.

Монетизация информационных сайтов (докрутка) (https://profitmedia.guru)
M
На сайте с 28.09.2006
Offline
13
#17

у меня есть старенький сайт

сам сижу на славхост

читал, что они недавно установили софт по измерению нагрузки

мой сайт на 80% статический и, несмотря, на это мне начали приходить письма

с примерно одинаковым содержанием - проц - 13% память - 4%

после чего я внес такие изменения в robots.txt

первым блоком мы блокируем качалки

вторым блоком yahoo



User-agent: DISCo Pump, Wget, WebZIP, Teleport, Teleport Pro, Teleport Ultra, WebSnake, Offline Explorer, Web-By-Mail, FlashGet, Web Downloader, HTTrack off-line browser
Disallow: /map
Disallow: /bb
Disallow: /med
Disallow: /russlab

User-agent: Slurp
Crawl-delay: 1000

письма идти перестали

сайт не отключается

как вывод - юзеры зачастую создают самый малениький процент нагрузки на сервер, в отличие, от качалок и невоспитанных ботов

стабильно 100$ с сайта в месяц здесь (http://www.sape.ru/r.960d480b23.php)
T
На сайте с 23.06.2006
Offline
257
#18

Это


User-agent: DISCo Pump, Wget, WebZIP, Teleport, Teleport Pro, Teleport Ultra, WebSnake, Offline Explorer, Web-By-Mail, FlashGet, Web Downloader, HTTrack off-line browser
Disallow: /map
Disallow: /bb
Disallow: /med
Disallow: /russlab

User-agent: Slurp
Crawl-delay: 1000

нужно записать в файл robots.txt на каждом домене и субдомене и все получится?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий