winner_tig

Рейтинг
81
Регистрация
21.02.2012

Работаем год, выплаты стабильные, стоит в одном из разделах на сайте по заработку и рекламе, никакой чернухи (порно, наркоты, итд) в рекламе с партнёрки нет.

Проблема решена, уже 5 день, даже с повышенной нагрузкой такой проблемы нет.

Были переписаны некоторые моменты в скрипте, проведена масштабная оптимизация таблиц, и много чего ещё, но думаю большую роль сыграли настройки:

innodb_buffer_pool_size = 16G было (2G)

innodb_flush_method=O_DIRECT

innodb_log_file_size = 512M было (64М)

Mobiaaa:
Нужно причину было искать, а не ребутить ;)
Тем более Mysql умеет/практикует кеширование данных в RAM (если конечно выставлены эти опции), а Вы ребутом этот кеш убили :)

Это происходит постоянно, найти ещё успею, а вот сайт простаивать не может...

После перезагрузки мускула, ситуация улучшается, работает всё хорошо часов 5-7 но со временем задачи начинают копиться и уже не уменьшаются...

LEOnidUKG:
Так у вас хостинг собственный разных сайтов или что? Под какие нужды используется серчер? Что за скрипты в таком количестве висят?

Сервер арендованный,

Процессор Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz 1200.000 Mhz X 24

Оперативная память 48GB

Система (файлы и бд) если не ошибаюсь на SDD (не помню какой RAID)

Стоит сайт, с большим количеством запросов, и онлайн по несколько тысяч, в пик и более...

всему беда была sleep(4); 🤪 убрал, пока полёт нормальный

---------- Добавлено 23.10.2016 в 17:54 ----------

winner_tig:
всему беда была sleep(4); 🤪 убрал, пока полёт нормальный

Но не долго, внов tasks пополз вверх (((

Mobiaaa:
у Вас тонна apache процессов
Когда их становится, больше чем ограничено в лимитах, то возвращается ошибка
подключите server-status к apache, посмотрите чем он там занимается
Возможно Вас просто DoS'ят

Ддос исключён, стоит ddos-guard, а вот server-status вроде всё как обычно...

---------- Добавлено 23.10.2016 в 16:45 ----------

sleep(4); очень часто, может привести к такой картине ? Стояло на загрузке фрейма, что бы успевало загрузится, в общем сам не помню...

написанное там не как не решает проблему.

---------- Добавлено 04.01.2015 в 19:30 ----------

нашёл причину:

#Блокируем плохих ботов и роботов
SetEnvIfNoCase user-Agent ^FrontPage [NC,OR]
SetEnvIfNoCase user-Agent ^Java.* [NC,OR]
SetEnvIfNoCase user-Agent ^Microsoft.URL [NC,OR]
SetEnvIfNoCase user-Agent ^MSFrontPage [NC,OR]
SetEnvIfNoCase user-Agent ^Offline.Explorer [NC,OR]
SetEnvIfNoCase user-Agent ^[Ww]eb[Bb]andit [NC,OR]
SetEnvIfNoCase user-Agent ^Zeus [NC]
<limit get="" post="" head="">
Order Allow,Deny
Allow from all
Deny from env=bad_bot
</limit>

там 3 раза повторяется MaxClients 250 и 150 150 что из них менять и на что не понятно...

спасибо, гуглить и переводить я умею, но это не как не решает проблему и не объясняет её.