Всё зависит от ситуации и от проблемы которую надо решать. Если построенно на vmware, то у них на сайте очень много ситуаций расписанно. В общем все эти HA мифы это ровно тоже самое что и безлимитный хостинг. Ломаются все системы. Изначальное назначение кластера, это решение проблемы когда не хватает ресурсов одного мощного сервера. Но народ применил на обратное - создают мощный кластер и его потом делит на куски. По моему это не логично, но у каждого есть свои расчёты. К примеру, OVH уже допетрились, что слишком много проблем держать мелкие сайты на кластере, заниматся для них лоуд балансингом и так далее. В общем тут много расхождений, у каждого свой подход и каждый подход имеет свои плюсы, свои минусы. Лично мне кажется не логичным объединять сервера, каждый из которых и так спокойно несёт на себе около 30 средних впсок в кластер, на который можно посадить количество впсок умноженное на число членов в кластере. Это может быть оправданно желанием оверселить каких то параметров (за счёт умощнения ресурса и усреднения нагрузки) и облегчить свою повседневную жизнь, но учитывая возможные и неизбежные проблемы в эксплуатации такого кластера лично мне такое применение не нравится.
Перестаньте, если я не использовал бы vmware ранее, может быть и поверил, но так как использовал, то не то что не верю, но знаю что есть апдейты требующие ребута... Это просто неизбежно, а бутится vmware дольше... иногда с проблемами... придёт время и сами убедитесь, бесмысленный спор.
Не можно, а так и надо делать в общих ситуациях. SSD диск имеет выше надёжность как деталь чем любой аппаратный контролер. SSD если и втыкать в рэйд, то только в страйп. RAID1 или RAID10 есть смысл использовать только в исключительных случаях, но тогда и подход другой, сами диски подбирать надо для таких исключений. Фактически SSD в зеркале умрут в одно и тоже время... Коротко скажем так - всё что годилось для обычных дисков (грампластинок), то не годится для SSD.
И наконец надо один раз усвоить - RAID не для безопасности данных, а только для снижения вероятности непрогнозируемого доунтайма. Для сохранности данных служит бэкапы. Доунтаймы будут во всех системах, ребут кластера займёт на много больше времени, чем ребут одиночного компютера. А ребут обязателен для всех систем, по крайней мере раз в год для смены ядра. Лучше раз в пол года, общее время доунтайма в таком слуае получается меньше ;)
О несоблюдении законов? И это освободит дц от ответственности? Давайте только не надо поощрять илюзии - дц вышестоящая организация и несёт ответсвенность за всё что творится в ихней сети. И уже тем более дц не будет рисковать что ихние АС попали в чёрные списки или дело дошло до суда. Реселер это только одно паразитное звено, и все дц и многие клиенты ищут способов как избавится от этого звена. Но в открытую этого ни кто не говорит, так как просто отказатся о реселеров невыгодно. Вобщем мир полон компромисов, куда же без этого ;)
Аппаратный рэйд это ещё один узел, который снижает надёжность системы. Поинтересуйтесь теорией вероятности, она обязательно для конструкторов всех уровней. Отказоустойчивость системы гарантрует админ, а не железка.
Тут виноват не софтовый рэйд, а тот факт что на материнке типично только 6 сата, из них только 2 на 6 гбпс остальные на 3. Но давайте честно, больше 6 дискоов испольауется в < 0.001% от всех случаев использования серверов. Так что просто игнорируем в статистике такие случаи, это на уровне исключений ;)
Хозяйн барин, каждая иделогия имеет право на жизнь. А которая правильнее рассудит время...
Колеги, не танцуйте под звуки бубнов около тела якобы павшего медведя. Дождитесь хотя бы официального ответа представителя, он же на форуме. А то один раз уедете сами на дачу без интернета, и вас все тут с бубнами похоронят ;)
Потому что реселер пудрит мозги....
hdparm -tT /dev/sda
Единственный верный результат, может быть было ещё что то, но извините, углублятся во все результаты теста у меня терпения не хватико, так как лабуда всё. Вы мерите работу диска с контролером и видите скорости контролера/его кэша/частично РАМ. Когда что то тестируешь, надо понять что тестируешь. Еси тестируете с dd, то результат (созданный dd файл должен хотя бы два раза превысить RAM.....
Контролер SSD диску нафик не нужен, это тормоз, так как естествено мерите SAS vs SATA3 а не грампластинку vs SSD диск. Тут даже спорить не надо SSD ложит на лопатки n кратно все SAS по всем параетрам кроме многопотопной записи, да и чтение не шибко лучше. Также цена за гигабайт не в пользу SSD.
Такие непрофесиональные сравнения, просто сбивают людей с правильного пути....
P.S. Между вопросами вобще нет правильного ответа, а он звучит:
Использую все типы жестких дисков в зависимости от требуемых параметров.
Ничего не могу понять что творится в последнее время. Похоже на мировой катаклизм... чего ожидать дальше? Ещё хуже? 😕
Ровно тоже самое что и просто Google Apps, только за 5 баксов в месяц или 50 в год. Все правила фильтрации те же самые, все проблемы остаются, abuse ящик, логи домена контролирует гугл. Знаете сколько полезных писем теряете от потенциальных клиентов из за фильтров? 🍿 Несколько лет тому назад, я наслушавшись как хороши гугле апсы кинул туда домен, думал сэкономлю и не надо будет самому держать сервак для почты. Но увы, счастья не было сразу, а через пол года ещё тучу проблем получил и экстренно мигрировал обратно на свой сервак...
Не понял о чём тут? При чём тут я? (я это и есть моя компания) Я тут выступаю как клиент WHMCS с 2007 года и мне не нравится когда мой поставщик меня посылает на твитер или мордокнигу, чтобы узнать последние новости ;) Тем более, уверен на все 100%, что эскалация уязвимостей не безопасно.... те кого это действительно касается, вероятней всего не прочтут этот топик, но вот взломщиков на мысль наведёт... дополнительно не посвещённым клиентам WHMCS будет казатся не достойна доверия. Кому это выгодно? И Мат очень плохо делает с такими твитами...