- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
у меня были терки с sweb по такому же вопросу, причем нагрузка быда несистемной - от посещаемости не зависела, решил ограничением для бота yahoo:
ботик грузил трафа раз в 5 больше чем все остальные роботы и посетители вместе взятые 😮 теперь все ок
Элементарно. Берем PID'ы httpd, которые отдают статику и считаем на них тики CPU.
Элементарно. Берем PID'ы httpd, которые отдают статику и считаем на них тики CPU.
т.е. прикручиваем пач на апач?
...
Также вас могли взломать и разместить скрипты которые нагружают сервер.
В обычной ситуации Apache может много памяти использовать для обработки HMTL но никак не CPU. Но все зависит от пиковой посещаемости.
Что там в html можно сломать, интересно? 😂
т.е. прикручиваем пач на апач?
Зачем? status парсить можно
Тоже такая проблема с нагрузкой возникла, целый год все было нормально, практически ничего не менял и посещаемость не выросла, а сайты стали вырубать каждый день, причем всегда в ночное время. где то с часу до двух.
у меня есть старенький сайт
сам сижу на славхост
читал, что они недавно установили софт по измерению нагрузки
мой сайт на 80% статический и, несмотря, на это мне начали приходить письма
с примерно одинаковым содержанием - проц - 13% память - 4%
после чего я внес такие изменения в robots.txt
первым блоком мы блокируем качалки
вторым блоком yahoo
письма идти перестали
сайт не отключается
как вывод - юзеры зачастую создают самый малениький процент нагрузки на сервер, в отличие, от качалок и невоспитанных ботов
Это
нужно записать в файл robots.txt на каждом домене и субдомене и все получится?