seocore

seocore
Рейтинг
143
Регистрация
25.09.2006
LineHost:
Вобще у меня складывается такой опыт, что надо сваливать с больших компаний как можно скорее.

полностью поддерживаю, особенно проблемно решать специфические вопросы (такой клиент крупному хостеру просто не интересен)

ENELIS:
Скажите, а зачем Вам HW raid для SSD?
Это не практично...

может что-то специфическое - например VMWare ESXi поставить надо

ENELIS:
Вы фактически добавляете еще одну точку отказа + оверхед pcie + оверхед кэширования raid.

SSD может просто сдохнуть, и RAID-1 в этом случае решит проблему, что бы там не говорили про равномерный износ SSD в RAID-1 массиве

vlad0708:
насколько я понял из обилия прочитанной информации, диск не натыкается на такие нестабильности, он их "прячет в уголок" и забывает про них.
Это в теории. На практике так?

на практике - поверхность деградирует дальше, диск натыкается на новый нестабильный участок, пытается с него прочесть информацию (десятки и сотни раз прочитывая этот сектор), после чего электроника принимает решение, что этот сектор пора утилизировать (секторов в запасе под утилизацию тоже не так много как кажется), как этот процесс визуально выглядит? - в системе резко возникают проблемы с iowait, LA моментально уходит на несколько десятков единиц, какая может быть при этом стабильная работа? 😂

да и еще пара моментов, на заводе производится анализ поверхности, и пометка нестабильных секторов (скрытая таблица), после чего обнуляется SMART (в т.ч. на так называемых дисках с "заводским восстановлением"), и если у вас с самого начала в SMART'е есть какие-то данные, то диск не новый, пусть хоть из коробочки запечатанный, но не новый, и не важно какие там сказки рассказывал вам продавец

vlad0708:
Пока что основная мысль, которую я понял: главное чтобы они не увеличивались.

главное, чтобы диск не помер в ответственный момент, да и не стоит забывать, что когда диск натыкается на такие нестабильности, то "подвисает" вся система, тот же LA уйдет за сотню 😂

Rimlyanin:
без ретеста бедблоков ни дворнику, ни инженеру верить низзя.

есть ситуации, когда при непрерывной нагрузке на диски и их соответствующем перегреве (где-то за 45-55°C) начинает сыпать ошибки, если же выждать паузу и провести remap, то оказывается, что все хорошо, и плохих секторов нет ... только после потерянных данных от этого радости будет мало 🤪

sleepnow:
можно ли корректно, без особой головной боли настроить связку, что бы работали все функции ispmanager?

нет, без головной боли ispmanager не бывает вообще 😂

MFI:
Я склоняюсь к такому мнению, что CloudFlare не будет реагировать на абузы от физических лиц

а зачем это им нужно? - реагировать на абузы от физических лиц? - им и юридические лица по барабану 🍿

CloudFlare дает явные полезные плюшки:

1) забудьте про брутфорс (единственной "дырой" в системе будет 80-ый порт)

2) забудьте про выключение дедика за всякие внешние безобразия (редкий ДЦ будет смотреть на то, как на клиентский сервер летит 10Гбит UDP-пакетов)

3) забудьте про абузы от школоты и прочий неадекватный трэш, если уж WikiLeaks на них сидит, то отдел юристов у них кушает хлеб не зря

И ЭТО ХОРОШО! ☝

vlad0708:

smartctl -A /dev/sda
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 16
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 18

smartctl -A /dev/sdb
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 8

исходя из этих данных:

1) sda в порядке, но проблемы начнутся в ближайшее время (уже есть 16 переназначенных секторов, т.е. секторы читались/писались нестабильно и система их "утилизировала", при этом данные на них не потерялись, а просто перемещены были в другие сектора)

2) sdb уже имеет в наличии 8 плохих секторов (с потерянной информацией на них)

оба диска уже можно выбрасывать, хотя sda еще можно использовать под те же бэкапы, но продакшн систему на нем держать уже нет смысла

Ben_Laden:
а можно смайлик, словом?))

nginx ищет файлы там, где их нет, apache ищет там, где они есть, давайте сюда конфиг (виртуалхоста этого домена) nginx и apache и проблема будет решена, либо изучайте сами :)

Ben_Laden:
Вот ссылка http://blog.hrum.com.ua/

http://blog.hrum.com.ua:81/wp-content/themes/twentytwelve/style.css - есть файл (Апач его находит)

http://blog.hrum.com.ua/wp-content/themes/twentytwelve/style.css - нет файла (nginx не находит)

вывод - простой 🍿

Ben_Laden:
После заливки вордпресса на сервер, делаю установку, но вот тут вылетают мне непонятные вещи.
Стили css не подключаются! Ни на одной странице, ни в админке.
сам лично в этом совсем не разбираюсь...

Почему так, в чем проблема, и что нужно делать что бы все было как должно?
Спасибо, надеюсь на вашу помощь!

сеанс телепатии - права на папку домена поставьте 755 :)

Всего: 1078