- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тут я бы поспорил.
Лично у меня были проблемы с SSD дисками. Отходили в мир иной. По крайней мере 3 штуки. Один реально сточился за 1 год, был под файловой версией 1С. Еле успели данные слить, и то с проблемами.
У одного были ацкие глюки при работе. Кое как полечили прошивками новыми. Третий тупо теряет данные при работе. Говорит, что записал, а потом прочитать не может. Причем я за всю свою жизнь имел дело от силы с 20-30 дисками SSD. А вот SAS дисков дохлых на своей памяти не припомню. Хотя прошли через меня их тысячи. Был тока 1 хитачи бракованый, тока вставил в СХД, а он сразу откинулся. Поменял по гарантии.
Так что мой личный опыт о надежности SSD несколько расходится с вашим :)
Хотя, конечно, сравнивать по надежности домашние SSD диски и Enterprise класс SAS как-то не очень.
P.S. Кстати, посмотрел нагрузку на 3-х системах хранения. Удивлен этим фактом, но порядка 80% операций идет на ЗАПИСЬ!!! Крутится суммарно около 300 серверов разношерстного вида. То есть это не есть влияние какой-тоспецифической нагрузки, это общая тенденция. Полагаю, все остальное действительно уже прочитано и сидит в кэше гостевых ОС виртуалок и кэше хранилок.
Совершенно неверно их сравнивать.
Вот если с SATA сравнить, то у нас из заказа на 50 дисков WD Green 48 ушли в мусор спустя 1-2 месяца пользования.
SSD домашние было два отказа за все время - 1 Intel 320 8mb brick
и вот сейчас Kingston v300 120G сдох ни с того ни с сего.
Enterprise SSD пока что не пробовали (кроме Интелов), потому по ним сказать не могу.
Знаю что SLC неубиваемые даже по сравнени с Дисками.
---------- Добавлено 18.10.2013 в 17:57 ----------
Помимо скорости решения есть еще такой параметр, как надежность. К сожалению, потребительский уровень практически не ценит последний параметр. В корпорейте совсем другой расклад.
Сейчас строю кластер для одного банка, у них процессинг VISA, простой 3 часа в год и привет, отбирают лицензию. Как вы думаете, они кроят? Пытаются вкорячивать SATA или SSD домашние? :)
Там все N+1 зарезервировано, включая SAS полки. Ибо SAS диски 2-портовые и к ним можно подключить 2 и более контроллеров, которые будут их параллельно обслуживать. Чего НИКАК нельзя сделать на SATA и SATA-SSD.
Можно, почему нельзя. Просто подход не верный.
Слишком много middleware которое Вам приходится дублировать несколько раз.
Сравните цепочку das+das плюс резервирование самих райд-карт (ибо они если выйдут из строя будет проблема) или iscsi immediate mode raid 10*10*10*x zfs с резервированием балансировщика 2*x. Последнее будет выгоднее и в цене и в качестве, на той же солярке или линуксе это можно поднять.
В таком варианте можно напихать домашних ssd и менять их чуть что случись, как нистранно сервер с памятью будет дешевле райд карты.
В итоге, можно поднять с двух микроклаудов raid 0 san с балансировкой по carp или multipath, кому что угодно.
Как по мне, так проще и надежнее купить Enterprise пешение и в ус не дуть...
sladkydze, прошлогодний простой глобальный процессинга сбербанка был как раз 3 часа 10 минут. Что-то VISA у них ничего не отобрали.
Может не надо выпендриваться? По крайней мере на форуме где у людей сайты на грани окупаемости. Покупай SAS или не покупай - люди везде одинаковые. Они обязательно захотят сэкономить или просто облажаются.
Как по мне, так проще и надежнее купить Enterprise пешение и в ус не дуть...
Google's Secret: 'Cheap and Fast' Hardware + репликация. Поинтересуйтесь.
netwind на счет выпендриваться не понял. Лично я предлагаю решение энтерпрайз уровня по вменяемым деньгам. Многие считают ценник оправданным. Вполне себе осознаю, что есть товарищи, сайты которых практически не приносят прибыли и для них проблема платить 1000р в месяц. Но согласитесь, это должна быть их проблема. Нет прибыли - либо сам спонсируй, либо ищи мегадешевый хостинг. Я, как хостер, выбрал иной путь. От своего хостинга я пока терплю только убытки порядка 500.000р ежемесячно, я же не плачусь и не пытаюсь найти бесплатную аренду стоек и каналов.
LineHost вполне себе вариант.
От своего хостинга я пока терплю только убытки порядка 500.000р ежемесячно
Достаточно красноречиво. Рад за вас. Мне тоже не жалко чужих денег никогда.
Коллеги, требуется машинка для завершения тестов. Параметры:
1x SSD >=128GB или >=4x SSD (в идеале обе). Нужно вывести зависимость результатов тестов от количества дисков ssd.
RAM <=16Gb. Желательно не более 8Gb.
OS: CentOS/Debian/Ubuntu
Время для тестов: 3-6 часов
С меня благодарность! Ну и буду в долгу =)
p.s. only dedic, not vps
Коротко о главном:
1. С ростом количества SAS дисков в массиве все показатели только улучшаются.
2. Для MySQL медленные подсистемы это SATA RAID1 и SAS RAID1. По остальным отличия есть, но они не столь существенны.
3. Для линейно записи хороши как большие массивы из SAS дисков в RAID10, так и SSD. Смысла использовать массивы из SSD нет. Стоимость растет, а производительность на месте.
4. Для линейного чтения хороши любые большие массивы. Но на практике лин. чтение без записи у нас почти не встретить.
5. Рандомное чтение за SSD одиночными или в Software RAID.
6. Для рандомной записи лучше использовать Hardware RAID из SSD, хотя не сильно поступаются и одиночные SSD.
7. Рандомные чтение/запись, то есть один из самых важных показателей, имеют лучшие результаты на Hardware RAID из SSD.
8. Обобщая все вышесказанное, для большинства задач лучше использовать большие массивы (>=8) из SAS или Hardware RAID из SSD. Но для некоторых задач корректнее будет использовать одинарные SSD.
9. Исходя из объемов SSD, которые преимущественно предлагаются на нашем рынке, под VDS-ноды стоит использовать максимальной производительности процессоры в паре с большими SAS массивами или же средненькие процессоры и одинарные SSD. Считаю что использование hw raid для двух SSD будет дороговато.
10. Если вам необходима быстрая система и нет необходимости в большом дисковом пространстве 2x SSD в Hardware RAID будет лучшим выбором. Если желаете немного сэкономить в ущерб производительности, тогда можно взять одинарный SSD или два SSD в софтовом рейде.
Благодарности:
1. vds4you за предоставление большого числа виртуальных машин, на основании которых производилась калибровка тестов;
2. PlusServer за предоставление четырех первых тестируемых машин на SSD/SAS, которые довольно таки продолжительное время тестировались. К сожалению в данные графики они попали. А также двух SATA из текущих тестов;
3. FastVPS за предоставление всех серверов с SSD KINGSTON;
4. ServerClub за предоставление машин с SSD INTEL Hardware RAID, а также всех машин с SAS дисками;
5. всем кто принимал участие в обсуждении первоначальных тестов.
Более подробная статья размещена на habrahabr.ru
WapGraf, спасибо за исследование :)
Я уважаю работу, но раздражает неверный результат. Всего не читал на хабре, так как видел в этой теме ошибки. Так, в пробежку:
Не углубляюсь, но то что в черном неверно. Такой результат получаеться потому, что на материнке только 2 SATA с 6 gbps, все другие 3 gbps. Поэтому и спад 4 дисков в RAID-10.... А аппаратных контролеров которые полностью утилизировали SSD практически нет, по крайней мере по доступной цене.
Под сомнением все пункты, где упомянуто что с аппаратным контролером запись лучше ;) К примеру в случае линейой записи в несколько потоков, SSD производительность сильно падает.
По моему и тема и статья на хабре только вводит людей в замешательство... Если и делать такое иследование, то все диски надо втыкать в те же машинки, использовать те же контролеры, правильно подбирая сам тест. В таком случае можно будет хоя бы видеть как повлияла замена диска на конкретной системе. Вобщем, много труда, много потраченного времени а результат...