полностью поддерживаю, особенно проблемно решать специфические вопросы (такой клиент крупному хостеру просто не интересен)
может что-то специфическое - например VMWare ESXi поставить надо
SSD может просто сдохнуть, и RAID-1 в этом случае решит проблему, что бы там не говорили про равномерный износ SSD в RAID-1 массиве
на практике - поверхность деградирует дальше, диск натыкается на новый нестабильный участок, пытается с него прочесть информацию (десятки и сотни раз прочитывая этот сектор), после чего электроника принимает решение, что этот сектор пора утилизировать (секторов в запасе под утилизацию тоже не так много как кажется), как этот процесс визуально выглядит? - в системе резко возникают проблемы с iowait, LA моментально уходит на несколько десятков единиц, какая может быть при этом стабильная работа? 😂
да и еще пара моментов, на заводе производится анализ поверхности, и пометка нестабильных секторов (скрытая таблица), после чего обнуляется SMART (в т.ч. на так называемых дисках с "заводским восстановлением"), и если у вас с самого начала в SMART'е есть какие-то данные, то диск не новый, пусть хоть из коробочки запечатанный, но не новый, и не важно какие там сказки рассказывал вам продавец
главное, чтобы диск не помер в ответственный момент, да и не стоит забывать, что когда диск натыкается на такие нестабильности, то "подвисает" вся система, тот же LA уйдет за сотню 😂
есть ситуации, когда при непрерывной нагрузке на диски и их соответствующем перегреве (где-то за 45-55°C) начинает сыпать ошибки, если же выждать паузу и провести remap, то оказывается, что все хорошо, и плохих секторов нет ... только после потерянных данных от этого радости будет мало 🤪
нет, без головной боли ispmanager не бывает вообще 😂
а зачем это им нужно? - реагировать на абузы от физических лиц? - им и юридические лица по барабану 🍿
CloudFlare дает явные полезные плюшки:
1) забудьте про брутфорс (единственной "дырой" в системе будет 80-ый порт)
2) забудьте про выключение дедика за всякие внешние безобразия (редкий ДЦ будет смотреть на то, как на клиентский сервер летит 10Гбит UDP-пакетов)
3) забудьте про абузы от школоты и прочий неадекватный трэш, если уж WikiLeaks на них сидит, то отдел юристов у них кушает хлеб не зря
И ЭТО ХОРОШО! ☝
исходя из этих данных:
1) sda в порядке, но проблемы начнутся в ближайшее время (уже есть 16 переназначенных секторов, т.е. секторы читались/писались нестабильно и система их "утилизировала", при этом данные на них не потерялись, а просто перемещены были в другие сектора)
2) sdb уже имеет в наличии 8 плохих секторов (с потерянной информацией на них)
оба диска уже можно выбрасывать, хотя sda еще можно использовать под те же бэкапы, но продакшн систему на нем держать уже нет смысла
nginx ищет файлы там, где их нет, apache ищет там, где они есть, давайте сюда конфиг (виртуалхоста этого домена) nginx и apache и проблема будет решена, либо изучайте сами :)
http://blog.hrum.com.ua:81/wp-content/themes/twentytwelve/style.css - есть файл (Апач его находит)
http://blog.hrum.com.ua/wp-content/themes/twentytwelve/style.css - нет файла (nginx не находит)
вывод - простой 🍿
сеанс телепатии - права на папку домена поставьте 755 :)