Ivan Lungov

Ivan Lungov
Рейтинг
222
Регистрация
24.04.2013
http://www.ihor.ru/about.html
IPSERVERWORLD:
LSI. В основном топовые модели. По поводу TRIM читаем здесь.

На LCI тоже тестировали, по поводу трима, почитал, спасибо за ссылку. Тут только 1 момент, что при использовании на предприятии, действительно, операции удаления не так часты, но что касается VDS, то здесь, удаление идет сразу целыми виртуалками, с немалым объемом диска. Скажем, при естественном отвале тестовых или при миграции VDS, на другую ноду. По этому, здесь реально можно посадить диски по производительности довольно быстро.

IPSERVERWORLD:
Мне, к сожалению, сложно прокомментировать Ваши тесты, так как мы их не видели, но у нас реально используются на одной НОДе Samsung 850 Pro, результаты всё-таки хуже чем на Intel.

Что самое интересное, серия Pro, действительно, местами работает медленнее чем EVO. Хотя, по сути, они отличаются в основном только большим количеством резервных блоков.

IPSERVERWORLD:
У Вас же RAID1? Не сравнивали откровенно говоря RAID1 и RAID10 SSD. Попробуйте RAID10 потестировать и сравнить, если будет возможность.

Пробовали и RAID10 в разных ипостасях (и другие варианты RAID). Вполне вероятно, что перейдем на него в новом кластере, сейчас, этот вопрос висит у меня на согласовании, и в целом, решение под это уже готово.

Что касается тестов при использовании RAID10+LCI, то мы получили очень интересные данные. Да, скорость линейного чтения/записи, показывает заоблачные результаты, за счет наличия кэша на RAID, контроллере. Но как ни странно, при этом почти в 2 раза падают IOps-ы и в несколько раз возрастает Avg. latency, 35 мс, против 7.8 мс, в RAID1(soft).

Случайное чтение/запись же, проседает хуже не куда. Кэш, здесь уже не спасает и получаем, что чтение падает примерно на 20% по сравнению, с RAID1(soft), а запись и того хуже, почти в два раза медленнее. И все это усугубляется резким повышением latency.

Наш вывод таков, любители dd, коих тут много, получат классные значения при использовании контроллеров LCI. Но при реальной работе, особенно в рамках хостинга, ситуация с последовательным чтением/записью, возникает довольно редко. Все больше рандом.

При выборе оптимальной конфигурации, мы исходили из того, что хостинг, это все таки, больше чтение, чем запись и основной упор именно на этот параметр - рандом. чтение. По этому, наши конфигурации, заточены именно под это.

В случае ТСа, ему действительно важна именно скорость записи, на счет того, рандомная она или последовательная я не в курсе, пускай, tlk сам уточнит этот момент, поскольку он реально важен. По этому, для него идеальным вариантом будет дедик, в котором он сможет получить полную скорость системы на запись, а не поделенную на пучок виртуалок.

Или же, вариант с отдельным СХД на 8-16 дисков минимум. Но опять же, как правило, на такие СХД сажают гораздо больше клиентов, чем на отдельный сервер с 2-4 дисками. По этому, прирост в скорости для отдельно взятой VDS, тоже не всегда может быть и будет на прямую зависеть от ценника. Выше цена меньше VDS на СХД.

В общем, на мой взгляд, проблему ТСа решил бы недорогой дедик на E3 c двумя SSD-дисками , минимального объема. В 3к рублей, можно уложиться.

---------- Добавлено 09.05.2015 в 04:17 ----------

IPSERVERWORLD:
А где, кстати, написано, что он серверный, а Intel S3500 Datacenter Edition - нет?
Серверный в обычном понимание, означает для серверов, а не для обычного компьютера. Серверные серии бывают разного класса безусловно.

Да, Intel ориентирует данную модель как для ЦОД, но на мой взгляд, это все таки больше маркетинг. Безусловно, они более надежны, чем десктопы, но по скоростным характеристикам, особой разницы нет. Но это только мое ИМХО.

IPSERVERWORLD, А модель RAID-контроллера у Вас какая? Trim поддерживает в Linux-e?

---------- Добавлено 09.05.2015 в 01:00 ----------

IPSERVERWORLD:
Самсунги огорчю Вас, медленее. Мы тестировали их. К тому же Samsung 840/850 - не серверная серия.

Мы тестировали интелы, у нас, они показали худшие результаты по производительности чем самунги (может быть, мы не умеем их готовить). Собственно говоря, по этому выбор и пал на самсунги. То что не серверная, я в курсе, но для нашего ценового сегмента они оказались самые оптимальные оптимальные. По сути своей, S3500, тоже не являются серверными. Enterpise, это хуже чем сервер но лучше чем десктоп. В моем понимании, серверные, это что-типа вот этого. Там уже и RAID, и на порядок выше скорость чтения/записи, и прямой доступ к шине, и куча других плюшек.

dyakoff:
Прошу прощения, что влажу, но установка лимита использований в биллинге на одну ноду должна решить проблему.

В биллинге ставится целиком на кластер, а не на конкретную ноду.

Ограничение на ноду настраивается в VMmanager, иногда ловим такую ситуацию, например стоит ограничение в 30 вдс, но в какой то момент и каким то боком туда пролезает 31-я.

В VManager много багов, и скорее всего, это один из них. В новом кластере, будем использовать более свежую версию, возможно, ИСПшники уже исправили этот баг.

Sujcnm:
Но если нужен именно лоу-кост и вы готовы закрыть глаза на мелкие неприятности, то вам к ihor.ru - дешевле не найти.
Ilya74:
Он итак сейчас у ihor

Да, сейчас у нас ). Но ТСу, не хватает 50 Мб/с на запись, которые у нас получаются по факту.

По этому, коллеги, если предлагаете, убедитесь, что у вас системы выдают гарантированно 100 Мб/с на запись! Я в своей ветке предложил, уважаемому tlk, на выбор два варианта дедик или решение от sladkydze. Но тут, я так понимаю, вопрос цены.

---------- Добавлено 08.05.2015 в 23:02 ----------

IPSERVERWORLD:
Диски Enterprise класса, Intel S3500

Если не секрет, в какой конфигурации ставите? Какой RAID, сколько дисков?

Просто, если что, то здесь приведены их скоростные характеристики. Они несколько ниже, чем у самсунгов, которые мы используем.

tlk:
Что же касается первой проблемы, когда диск был переведён в режим read-only вы, видимо, недостаточно хорошо разобрались в сути ситуации, следовательно, я настаиваю на более детальном рассмотрении проблемы. Последствия данной ситуации меня не устраивают, поэтому я не оставлю эту проблему без пристального внимания в случае игнорирования моего обоснованного беспокойства.

Я уже писал, могу повторить снова:

1. Почему диск внутри Вашего VDS перешел в read-only, мы не знаем, для этого нам нужен доступ к Вашему VDS, а у нас его нет.

2. В работе гипервизора не было обнаружено никаких проблем. Следовательно, что-то, внутри самого контейнера повлияло на файловую систему так, что она перешла в режим read-only.

3. Даже если на гипервизоре закончился бы диск, это никак не влияет на работу VDS, поскольку, диск для VDS является блочным и создается сразу того размера, который указан в тарифе. Это примерно также, как создание дисков C: D: E:... на Вашем компьютере. Когда Вы разбили жесткий диск на разделы, он считается заполненным на 100%. Но это не значит, что внутри логических дисков тоже нет места.

4. По сути, когда предоставляется услуга VDS, зона ответственности хостера заканчивается на запуске виртуальной машины. Если эмулятор BIOS стартанул успешно, значит VDS, с точки зрения гипервизора работает. Какая операционная система будет грузится и как она будет работать, это уже зона ответственности клиента. Например, если Вы выполните внутри Вашего VDS команду "rm -rf /*", то почему мы должны отвечать за потерю данных? Вы покупаете комп в магазине, магазин предоставляет гарантию, что железо будет работать. Но ни один магазин не даст Вам гарантию, на возможные проблемы с софтом, который Вы поставите на этот комп. VDS, является тем же самым виртуальным компом. Хостер, гарантирует, что виртуальное "железо" будет работать и виртуальная сетевая карта будет подключена к Интернету.

Если Ваша ОС перевела диск в режим read-only, то мы то тут причем? Вот если бы она написала бы что диска нет вообще, тогда это наша проблема. А диск, в режим read-only, может перевести любой сисадмин в любое время, если у него есть доступ к системе.

5. Безусловно, мы хотим, чтобы у наших клиентов все работало без сбоев, чтобы сайты крутились, странички открывались и т.п. По этому у нас есть тех. поддержка, которая готова прийти на помощь в случае возникновения внештатных ситуаций. И внутренняя проблема Вашего VDS, была решена нашими специалистами в максимально сжатые сроки. Файловую систему починили, сервер запустили.

---------- Добавлено 08.05.2015 в 21:26 ----------

Drager:
Почти такая же ситуация, Иван - тикет 445353
просыпаюсь я утром под оповещения СМС о сдохших сайтах, смотрю - все умерло, просто умерло, не помогает ничего, контейнер мне не доступен, помогла миграция, ответ о причине поставил меня в тупик, за 15 лет работы с VPS еще нигде так контейнеры не умирали.
И ладно я был в работе и утром все это решил, а если бы меня не было или я был бы не доступен, то все так бы и было мертвое и заметьте не по моей причине, это меня сильно беспокоит, то что конейнер может лечь в любой момент по причинам от меня не зависящим и никому дел до этого нет.

В Вашем случае, как ТП и написало, возник дефицит ОЗУ на ноде. Мы уже несколько раз замечали такую ситуацию, когда VMmanager по какой то, только ему понятной внутренней логике, пытается уместить на сервер больше VDS, чем это возможно, хотя, по всем параметрам, не должен был этого делать. В начале, такие ситуации были не редки. По этому мы стали комплектовать новые серверы дополнительным объемом ОЗУ, сохраняя при этом ограничение на количество VDS размещаемых на сервере. Сейчас, еще осталось некоторое количество серверов с меньшим объемом памяти. Поскольку эти серверы водились в строй первыми, там уже состоявшийся контингент пользователей и какие либо движения происходят редко, но иногда бывают. На свежих нодах, такой проблемы не возникало.

В новом кластере, мы уже будем запускать сервера только с увеличенным объемом памяти. Постепенно, все первые серверы будут переукомплектованы.

iiname:
Иван, извините, но сейчас не смогу помочь с разработкой панелей управления, катастрофическая нехватка времени и полностью забитый график до конца июня, на голову навалились новые проекты и дачный сезон.

Удачи разработчику! Без использования единого ядра, MVC модели, и ООП - будет мусор.

Как будете готовы или будут идеи, пишите, можно на прямую нашему ведущему разработчику Goodwin85. У него большой опыт в разработке масштабируемых веб-приложений и все перечисленные Вами технологии, он конечно использует.

tlk:
Иван, ну и долго мне ждать объяснений? Вы решили технично морозиться и съезжать?!
Если у вас там работают криворукие админы - достаточно просто сообщить что виновные наказаны или уволены.

tlk, Я уже писал, что сейчас много езжу по переговорам, и за компом, сижу эпизодами. К тому же, для обстоятельного и политкорректного ответа, мне нужно было получить достаточно инфы от админов. Я конечно, мог попросить их самих здесь ответить. Но зная их мнение о тех, кто проверяет скорость работы диска командой dd, лучше этого не делать.

Касательно Вашей ситуации:

Никаких аномалий на сервере, на котором находится Ваш VDS, мы не обнаружили. Средняя, штатная нагрузка.

При тестах, на пустом сервере используемой нами конфигурации, скорость линейной записи, достигает 231 Мб/с. По этому, показатель в 53 Мб/с является, весьма не плохим для тарифа Cuprum (тем более, если Вы производили замер на рабочем сервере, без остановки всех служб на нем, а соответственно, они тоже кушали диски в этот момент). На некоторых нодах, можно получить 120-160 Мб/с (несколько страниц назад, здесь приводили примеры). Если хотите, можем еще раз, Вас отмигрировать на менее нагруженную ноду. Но опять же, без какой либо гарантии, что скорость будет всегда одинакова.

Мы стремимся, соблюсти хороший баланс между ценой и производительностью и протестировав несколько десятков конфигураций RAID-систем, остановились, пока на текущей, как наиболее оптимальной для сегмента лоукост, к которым относятся наши тарифы.

Безусловно, мы продолжаем работать над оптимизацией всех подсистем и в новом кластере, работа над которым выходит уже на финишную прямую, удалось добиться лучших показателей производительности дисковой подсистемы, без увеличения стоимости железа.

В планах на лето, стоит масштабное тестирование SSD класса Enterprise, с существенно более высокими показателями производительности, но и соответственно, ценой. Будет ли такая конфигурация сервера вписываться в рамки лоукоста или это будет отдельная линейка продуктов, мне пока сказать сложно. Это будет понятно, только после окончания тестов и по результатам переговоров с вендором о скидках.

Итог: сейчас, имеем, то что имеем, но на месте не стоим. Гарантий, что скорость диска всегда будет неизменной, мы никогда не давали. По этому предлагали тестовый период. Отдельно стоящих тестовых серверов у нас никогда не было, все размещалось вперемешку. Если клиента не устраивает текущая скорость работы, всегда готовы отмигрировать его на наименее нагруженный сервер. Естественно, не в наших интересах, когда производительность сервера стремится к нулю и мы постоянно работаем над оптимизацией. Но по любому, у серверов есть свои физические пределы по скорости, выше которых, мы предоставить не можем. И если, для Ваших задач не хватает производительности наших серверов, то тут, могу только посоветовать взять выделенный сервер, тогда все доступные ресурсы сервера будут в Вашем распоряжении. Или же, посмотреть в сторону не лоукост сегмента услуг. У нас, пока, такого предложения нет. Из имеющихся, здесь на серчах предложений, и чтобы в России, могу посоветовать обратиться к sladkydze, но если не ошибаюсь, то у него минимальный ценник 1к рублей. Но за то, получите в пользование СХД уровня Enterprise, где скорость дисковой подсистемы будет существенно выше, чем в нашем standalone-решении с двумя дисками в RAID1.

---------- Добавлено 07.05.2015 в 23:30 ----------

userbit:
Ivan Lungov, планирую размещать у вас сайты интернет-магазины на сторонних CMS, типа Амиро, Диафан, Битрикс. Часто требуется срочное допиливание/изменение функционала прямо на хостиге. Так вот, чтобы найти нужные файлы с php-кодом для заточки под свои нужды, использую поиск по файлам командой grep.
Ну и вообще с командной строкой я неограничен по работе с файлами, через ssh все быстро и удобно. Еще есть множество случаев, которых не перечислить, когда только консоль может выручить в поддержке сайтов.

Напишите в тех. поддержку, с ссылкой на этот пост, думаю, найдем для Вас решение с доступом по SSH к хостинг-серверу.

userbit, SSH отключили в целях безопасности, а то развелось любителей майнинга, которые запускали скрипты через ssh на хостинговых серверах на тестовом периоде. Опишите ситуацию, по которой Вам нужен SSH, рассмотрим возможность предоставления.

lhoster, Нет, это форс-мажор. Уже все подняли.

tlk, Как я писал чуть выше, сегодня вечером буду в офисе, разберу Вашу проблему обстоятельно.

---------- Добавлено 04.05.2015 в 00:22 ----------

Как раз, будет совещание с админами, вот и включу в повестку.

Всего: 2241