sladkydze

sladkydze
Рейтинг
243
Регистрация
07.12.2012

Конечно, бюджет не айс.

Вам вот такую надо брать за 23 тыр:http://www.supermicro.com/products/system/1u/5017/sys-5017r-mtf.cfm

но там нет SAS, только SATA

Следовательно, к ней неплохо было бы внешний контроллер с батарейкой, ибо встроенного SAS контроллера нет.

Допустим, контроллер будет такой: http://www.regard.ru/catalog/tovar112488.htm

кстати, достаточно ядерный :)

Батарейка к нему: http://www.regard.ru/catalog/tovar105982.htm

Проц под ваши требования: http://www.regard.ru/catalog/tovar105584.htm

Память: http://www.regard.ru/catalog/tovar120458.htm

4 штуки

Итого выходит:

23.000 платформа

16.000 контроллер

7.000 батарейка

8.500 проц

4*4.000=16.000 память

Всё вместе: 70 тыр примерно.

Но мы еще про диски не говорили :)

4*8.000=32 тыр.

Весь бюджет такого сервака выйдет в 100 с хвостиком.

Конечно, можно порезать батарейку. поставить убогий контроллер, памяти поменьше. Тогда в бюджет мож и впишитесь. Но зачем тогда вообще такой "сервер"? Зачем из конфетки делать неизвестно что? Пусть будет хоть и дорогой, но конфеткой.

Кстати, этот подсчет будет полезем всем , кто желает получить в аренду крутой дедик с безлимитным каналом и за недорого. Посмотрите на ценник, за недорого не получается при всем желании :(

P.S. И это я бюджетный супермикро посчитал. А если это будет HP или IBM ? Умножаем цену на 2.

P.P.S. И еще, на хорошую производительность дисковой подсистемы и не надейтесь. Да, это будет быстрее SATA дисков, но вам придется либо RAID-5 собирать, либо 10-ку. И тот и другой не даст нормальный IOPS, особенно при случайном чтении (запись даж случайная будет хорошей за счет контроллера). ИМХО, в эту платформу надо бы вкорячить диск SSD под кэширование на чтение, гигов на 256, а лучше на 512 и побыстрее. Вот тогда будет вообще самолет. Будет рвать и метать. как говорится. Диск SSD (5-й по счету) можно разместить в внутри корпуса, там есть место, где он физически уместится. Благо, он мелкий по размеру. Но придется немного побыть Кулибиным :)

VPS бывают разные, как и виртуальные хостинги. Не надо мешать всё в одну кучу.

Кстати я тож в Регарде закупаюсь. Было несколько гарантийных случаев на новое железо + один раз купил тупо не то. Всё обменяли без вопросов.

Но вот на некоторые позиции, особенно диски, в ситилинке ценник ниже. По крайней мере в моём варианте было так.

Как бы уже больше чем на 1.5 ляма там железа набрал :)

Автор, озвучте бюджет плиз, помогу подобрать конфиг.

Граждане, есть мощная VDS, готов дать на тестирование за отзыв.

8 х Xeon E5 2690

16 GB ECC RAM

100 GB SSD JBOD

1 TB SAS RAID5

1 IP

1 Gbit

Server 2012 Std

Спасибо.

При нобходимости конфиг можно поменять.

Всё зависит от среды виртуализации, оборудования, настроек ПО и оьъема оперативной памяти виртуальной машины.

Т.к. у меня используется VMWare - скажу про неё.

Итак, варя при миграции виртуальной машины не останавливает её, а создаёт как бы её тень на целевом сервере миграции. В эту тень копируется содежимое оперативки текущей машины. Но машина работает и оперативка постоянно меняется. поэтому после копирования всей оперативки начинают повторно копироваться измененные блоки (которых по объему уже меньше). Потом итерация повторяется до тех пор, пока не оставшийся блок измененных данных не станет на столько мал, что он сможет быть скопированным за очень малое время (речь о миллисекундах). Тогда исходная ВМ останавливается, копируется последний блок памяти, запускается теневая копия на целевом сервере, исходник убивается. Это техническая сторона миграции.

Естественно, тут вмемя миграции зависит от ширины каналов, по которым передаются данные. Варя позволяет мигрировать параллельно 2 ВМ на канале в 100 мегабит, 4 ВМ на канале в 1 гигабит и 8 ВМ на канале в 10 гигабит.

Легко посчитать скорость миграции 1 виртуалки, допустим, с 8 гигами оперативки.

На линке 100 мегабит это 800 секунд.

На линке 1 гигабит это 80 секунд.

На линке 10 гигабит это 8 секунд.

(привет товарищу LineHost, утверждающему что между 1 и 10 гигабит нет практической разницы)

В реальности во время миграции виртуалка чуток притормаживает. Не сильно, но сидя на ней, допустим, по терминалке, это ощущается как небольшой лаг длительностью порядка 100-200 милисекунд. Всё зависит от каналов, по которым идет миграция и мощности физических серверов виртуализации. На 10Г этот лаг практически отсутствует.

Во время миграции на 10Г линке я наблюдал скорости в 1.186 мегабайт в секунду. 10Г он такой...

kristiz, напишите плиз ТТХ решения, которое у вас сейчас есть. А то не не все тут телепаты :)

Странный вы человек. Думаю, именно из-за таких хостеров как вы у клиентов складывается впечатление, что все хостеры жестоко оверсэлят. Я вижу, что по вашему опыту оверсэлили вы не хило. Раз имели такие низкие производительности СХД. Ваше мнение ясно, раз вода из крана у всех в Москве идёт изначально из одной трубы, значит Мосводоканал мошенник и оверселлер! Продаёт одну и ту же воду по нескольку раз! От негодяи...

А что мы выдим в реальности? Каждый клиент Мосводоканала может открыть кран и получить столько воды, сколько ему необходимо. Ни это ли нужно клиенту?

Имхо, у вас неправильное определение оверсэлла.

В вашем понимании это когда некий ресурс используется несколькими клиентами.

В моём понимании оверсэлл - это НЕ предоставление в гарантированном виде клиенту тех ресурсов, которые он оплатил. А в моей системе ресурсы предоставляются гарантированно. Я слежу за показателями нагрузки и при первых потенциальных признаках перегрузки докупаю мощности, то есть действую превентивно.

Могу дать контакты людей, у которых среднемесячная нагрузка на их машины близка к 100%. В чем для них проявляется оверселлинг?

Вот ни всё ли равно как и что работает внутри системы у хостера, если клиент ВСЕГДА получает оплаченные ресурсы в полном виде БЕЗ скрытых лимитов?

Да, я по сути продаю один физический процессор нескольким клиентам, но то и существует виртуализация. Но я ГАРАНТИРУЮ, что при необходимости клиент ВСЕГДА получит реальные гигагерцы. Те, которые он оплатил. И именно поэтому физические процессоры на серверах никогда не нагружены более чем на 50%, всегда есть запас на внезапные нужды по нагрузке. То же самое с оперативкой и диском. Так же у меня работает балансировщик нагрузки между серверами, позволяющий онлайн перемещать клиентские машинки между физическими серверами. Так что перегрузки ноды не будет.

Ни этого ли хочет клиент? Чтобы всегда была оплаченная мощность? Вот это я называю отсутствием оверсэла.

Если эту тему читают клиенты, прошу высказать ваше мнение.

P.S. Не нужно перегружать физические ресурсы, ущемляя (обманывая) при этом клиентов, и они будут счастливы.

P.P.S. По системе хранения: у меня там массив 12 ТБ SAS. При среднем объеме диска для виртуалок в 100GB - туда поместится не более 120 виртуалок. 60 ВМ там уже есть и показатели производительности очень достойные. Да, я во многом ущемляю себя и работаю почти в ноль, но это моя проблема и мой выбор.

Видимо, вы не имели дел с правильными системами хранения. У меня на этой хранилке висит не только SAS массив, но еще и 5 дисков SSD общей ёмкостью более 2.5 терабайт. И как вы думаете, хватит ли для всего этого 1 гигабита? Ответ очевиден. Дополнительно к этой де системы хранения будет подключено 2 массива SATA по 40ТБ каждый. Думаю, обращение ко всем этим ресурсам предполагает подключение не по 1 Гбиту. Кстати, последовательные скорости в 500 мегабайт в секунду в клиентских машинках - не редкость.

Во время тестирования я получил скорость доступа для 1 клиента в 15.000 IOPS при последовательном доступе в 240 потоков и для 8 клиентов в 75.000 IOPS последовательного доступа. Блоки 4к, 25% чтение 75% запись.

При 100% случайном доступе на SAS массиве получил 2000 IOPS при аналогичным показателям в 240 потоков.

При 100% случайном на запись 900 IOPS.

Это очень достойные показатели. SSD с той же хранилки, конечно, дают несравненно более высокие IOPS.

Сейчас на системе хранения крутится порядка 60 серверов. Меряю IOPS с одной из машин специально для вас имитируя боевую нагрузку:

SAS RAID 5

случайный доступ 25%, последовательный 75%

запись 25%, чтение 75%

10 параллельных потоков

IOMETER

стабильный результат в 350+ IOPS

мало? А ну ка гляньте IOPS при аналогичных устовиях на вашей системе с SAS дисками на любой физической машине и давайте в студию. Померяемся.

ИМХО, вы мне ни за что впаяли минус к репутации и продолжаете без оснований лить на меня грязь. Теперь отвечайте за свои слова.

LineHost у меня стоит внешняя система хранения, не самая бюджетная. 24 диска SAS 10k по 600 GB. Подключены по iSCSI 10 Гигабит 2-мя линками в линк-агрегейшен. Свитч естественно тоже 10Г. Все хосты тоже с 10Г.

IOPS на системе хранения есть прилично, для каждой ВМ я ограничиваю их на уровне 3.000, чего обычным сервачкам выше крыши. Кому мало - берут SSD. Поэтому получается практическое отсутствие влияния нескольких параллельных сессий друг на друга. Ну, и большие кэши контроллеров на запись + кэш в 200 гигабайт на чтение тоже играют свою роль.

А цены низкие, ну, так живу в проголодь, лишь бы клиент был доволен :)

Всего: 2002