Круто, это действительно ноу-хау! Вы изобрели новую технологию, позволяющую 32-битной архитектуре работать с 64 гигами оперативы. Респект! Уважуха! Аплодирую стоя!
Отправляю, Вас, к упомянутой, Вами, Википедии: http://ru.m.wikipedia.org/wiki/32_%D0%B1%D0%B8%D1%82%D0%B0
Вы, вероятно, по молодости своей не застали эпоху 32-бит, по этому пропустили данное знание, что 32-битная архитектура адресует, максимум 4 гига оперативы. Я же, начинал общение с вычислительными машинами еще в эпоху 8-ми битной архитектуры.
Я вас не троллю, Вы сами себя троллите своими постами. Я пытаюсь получить ответ на простой вопрос.
Математика не может быть абсурдной и она не моя, человечество ей тысячелетиями пользуется. И строго говоря, это даже не математика, а арифметика. Даже школьник должен уметь посчитать это. Эх, видимо правду говорят, что уровень образования в нашей стране сильно упал с вводом ЕГЭ...
СХД и есть программно-аппаратное решение, не путать с дисковыми полками, кои являются лишь коробками для дисков. Но какое бы решение не было, нельзя уместить в него дисков больше, чем туда влезает физически. Или может быть Вы колдун и знакомы с шестым измерением? Тогда это многое объясняет.
Так назовете модель СХД или нет?
И да, потрудитесь в следующий раз найти картинку по свежее, а то, предыдущие две уж больно баянистые. Не интересно.
У меня есть способность Видеть гораздо больше, чем видят другие, а обладание познаниями в области точных наук, позволяет неплохо анализировать увиденное.
Все что вы можете ответить по СХД это "и?"
Формула простая: 5843{VDS}*30{Гб}*2{мин. запас на рост}*1.3{Резервирование по контрольной сумме}/120{Гб}/6{СХД}
5843*30*2*1.3/120/6=632.99 Дисков на 1 cхд, а если, учесть что в технологии openstack рекомендуется использовать тройное резервирование, то получается 1460 дисков на 1 СХД. Конечно, я не знаю, процентное соотношение заказанных услуг по тарифам, по этому брал в расчет самый ходовой. Но в любом случае, погрешность, думаю, будет составлять 20-30% максимум.
Так вот я и спрашиваю, что за холодильники вы используете, в которые можно запихать от 600 до 1.5к дисков? Где такие монстры водятся, я бы себе тоже прикупил несколько штук, А то перебиваемся убогими решениями по 70 дисков :).
А про процы я не спрашивал. Мне это и так понятно, я не отрицаю, что несколько машин могут быть на Е5, иначе, как бы, вы заявляли топовые тарифы. Но казус с mark2011, косвенно доказывает мою правоту на счет использования i7. Да и бенчмарк, скорее i7-мовый. В прочем, мне это не сильно интересно. Я про СХД спрашиваю.
Я не сочиняю чушь, и не утверждаю, что вы используете двухдисковые сервера.
Я хочу знать модель СХД, в которую влезает столько дисков?
В портфель моих знаний еще не входит знание о таких огромных СХД и я хочу восполнить этот пробел. Просветите меня, пожалуйста.
Поскольку, вы не внимательно читаете мои посты, и я предполагаю, что вопрос заданный в одном посте четыре раза, может оказаться не замечен, резюмирую:
Какую модель СХД, вы используете?
cloudmouse, Я строю умозаключения исходя из той информации, которую вы предоставили:
1. 5843+ VDS - написано на вашем сайте.
2. 6 СХД - сказали вы сами.
3. SDD 120 Гбайт - тоже, от вас информация.
4. Популярный тариф - 30 Гбайт на VDS
Остальное математика, никаких фантазий. СХД 600+ дисков, мне, пока не удалось найти. Назовите модель, не думаю, что есть смысл держать такую информацию в тайне. Такими могучими железками, обычно гордятся и заявляют о них открыто.
Я привык оперировать лишь фактами. Гипотеза, относительно типа роцессора и фронтов, основана на показании бенчмарка, и поста mark2011.
На самом деле, тут особо нечего скрывать, Core i7 хороший процессор, хоть и десктопный, мы тоже раньше использовали их на своей линейке VPS Lite (А также, AMD бульдозеры). И мы, это заявляли на сайте. Конечно, при высоких нагрузках они будут проседать, по производительности, по сравнению с Xeon-ами. Но в целом, если ноду не сильно набивать, это, вполне нормальное решение.
Что касается, моего отношения к облакам, думаю, вы так и не поняли его. Я вовсе не являюсь противником облачных технологий. Но я привык все называть своими именами. В моем понятии облако это, как заметил liberator,
Также, из того, что я видел, к облачным технологиям можно, например, отнести Яндекс: более 30 дата-центров по всему миру в разных странах и парк более 100 тысяч серверов. Тоже, можно сказать про Google. В вашем случае, как я уже писал, правильней использовать термин квазиоблако или простое облако, как это делает DigitalOcean, клоном которого, вы являетесь. Они не стесняются, открыто заявлять об этом. Так почему вы не хотите?
Я не в коей мере не умаляю достоинств вашего сервиса. Но немого больше открытости, вам не помешает. Люди, любят знать своих героев в лицо. И о технологиях и используемом оборудовании тоже полезно давать информацию. Только она должна быть актуальной. Нечего стеснятся, что в каких то местах применяются не самые дорогие решения. В конце концов, знающие люди прекрасно понимают, что оборудование купленное за десятки, если не сотни миллионов, никто не будет сдавать в аренду за дешево. Иначе, складывается впечатление, что вы продаете себе в убыток и занимаетесь альтруизмом. Но все мы понимаем, что занимаемся данным бизнесом ради получения прибыли, а не только ради эстетического удовольствия. Настоящее облако, сейчас является не рентабельным для услуг хостинга. Оно, просто себя не окупит за 3 года, даже при полной загрузке. а за три года, железо устареет и будет требовать замены. Или, надо поднимать цены раз этак в 10.---------- Добавлено 11.07.2014 в 00:16 ----------Ну а вообще, сами виноваты, что я тут пишу.
Я не часто, оставляю тут посты. Просто ответил на вопрос, человека, что по тестам, можно утверждать, что у вас SSD-диски. А вы зачем то, зацепились, за то, что я сравниваю не сравнимое. Вот мне и стала интересна ваша точка зрения. Но пока, вменяемого ответа я не услышал. Только узнал, что оказывается, каждый раз, когда к нам приходит новый клиент, мы бежим в соседнюю булочную за планками памяти и процами. Согласитесь, это не ответ на мой вопрос. Не зацепились бы за мой пост, я бы мимо прошел, а теперь отвечайте по всей строгости ;).
Знаете, уважаемый Облачный Мышь (прошу прощения, не знаю Вашего имени отчества), практически в любом деле, многое зависит от опыта людей и умения быстро реагировать во внештатных ситуациях, вот пример: http://www.vesti.ru/doc.html?id=1772200.
Не надейтесь, что однажды собрав рабочую систему, можете отказаться от людей, всевозможные внештатные ситуации, могут возникать очень часто и от умения ваших специалистов быстро реагировать и принимать правильные решения, зависит узнают ли клиенты об их возникновении или нет.
Как я уже писал, у нас есть мониторинг, есть схемы, есть служебные панели управления. Или вы думаете что все остальные хостеры сервера на коленках держат, а когда что то происходит, начитают рвать на себе волосы и бегать по кабинету с выпученными глазами не зная что делать?
Давайте учитывать, что до настоящего облака, вам еще далеко. и даже 6 СХД, не спасут вас от проблем с ДЦ, какой бы надежный ДЦ не был, проблемы могут возникнуть и у него. Вот вам пример, того, как лежал один ЦОД, в котором, казалось бы было предусмотрено все: http://habrahabr.ru/company/croc/blog/151065/.
Далее, 6 СХД в работе, сколько на складе? И как далеко склад находиться от ДЦ. Как далеко от него Ваши специалисты? Насколько я понимаю, вы сами не живете в Амстердаме и не работаете в ДЦ EvoSwitch. Если выходит из строя один СХД, это не беда, но вышедший из строя элемент требует максимально быстрой замены. Поскольку велика вероятность возникновения точно такой же поломки на других СХД если они из одной партии, а если покупали сразу, то как правило это так. Если нет СХД лежащего на складе, в непосредственной близости от ДЦ, то тут, выражаясь вашими словами, вы судорожно бежите в магазин, пытаясь купить новый (это если в бюджет компании, заложена круглая сумма на подобный форс-мажор), в магазине, Вам говорят, что на складе таких железок нет, а контейнер будет идти из Китая месяц. Т.к., чем дороже железка, тем меньше вероятность, что вы сможете ее купить в тот же день, у Вас, должны быть очень дорогие и вместительные СХД, если вы используете 120 гиговые диски. Согласно данным, указанным на вашем сайте у вас 5843 VDS, умножаем на самый популярный тариф = 175 290 Гбайт дискового пространства задействованного уже сейчас. Делим на 120 Гбайт, получаем 1460 дисков, это без учета резервирования и и будущего роста, значит умножаем, как минимум на 2 и + 30% если резервирование по контрольной сумме, получаем порядка 3800 дисков (кстати, запасные на складе есть ;)). Получаем, что в одну СХД, у вас, должно влезать порядка 640 дисков. Это очень могучие СХД за очень могучие бабки. Я даже не знаю, существуют ли такие в природе, не поделитесь ссылкой на модель?
По опыту, 2-3 года, это максимальное время стабильной работы любой платформы, после этого, ее надо модернизировать, если не хотите огрести кучу глюков и проблем.
Ну я привел результаты тестов, выводы каждый может сделать сам.
Свои, я уже озвучивал ранее, процы у вас побыстрее, скорость работы дисковой подсистемы идентична. Что касается процов, если вспомнить пост mark2011, то получается, что у вас на фронтах стоят ноды с 8 ядрами и 64 Гбайт оперативы, могу предположить, что это что то типа крутого десктопа на Intel® Core™ i7-3820 с 4 ядрами (8 с HT).---------- Добавлено 10.07.2014 в 21:05 ----------
Ну вообще то на 2 ;), на 4 не имеет смысла, т.к. в формате SSD это не дало роста производительности
Miha Kuzmin (KMY), Расскажите по подробней о своей практике, какие диски были как быстро умерли?
Присоединяюсь к списку хостеров обладателей SSD дисков, как на серверах, так и на офисных компах.---------- Добавлено 10.07.2014 в 19:38 ----------
Ну любые диски нужно рейдить, хотя бы зеркалить и следить за SMART-ом.
Ну это синдром новичка, простительно. Пройдет со временем.
Со временем, начинаешь понимать, что идеальное решение это утопия. Нужно искать оптимальное.
Я все пытаюсь получить ответ, сколько у вас физических СХД? Если одно, то при выходе из строя, вы теряете бизнес.
Если выходит из строя традиционный сервер, страдают 30-50 клиентов.
Время замены сервера 15 минут. Все запасные комплектующие, всегда в наличии.
Время замены СХД, 4-8 недель, такие железки на складах, как правило не лежат и заказывать их нужно заранее, Мы, вот новый маршрутизатор заказали, срок поставки 6-8 недель.
Не ужели, вы считаете остальных хостеров такими убогими?
У нас есть мониторинг всех узлов сети и всех основных служб на всех серверах, в случае возникновения внештатной ситуации, администраторы узнают об этом в течение нескольких секунд путем получения СМС.
Даже, если сервер разорвет в клочья, у нас в настоящий момент пятикратный запас серверов, сервер запускается новый сервер запускается по команде из панели (даже в серверную ходить не надо). Автоматически наливается по сети и VDS-ы разворачиваются из резервных копий. Которые делаются на отдельный СХД. А в ближайшем будущем и во второй ДЦ, который географически удален от первого.
Благодаря, системе мониторинга, мы следим, за нагрузкой на сервера и своевременно вводим новые. Данный процесс, практически автоматизирован. В случае повышенной нагрузки, часть клиентов распределяется на другие сервера. VMmanager, который мы пока используем, тоже имеет онлайн-миграцию.
Вообще то, у нас тоже легко сменить тариф, нажатием кнопочки. Но не забывайте, что клиент должен перегрузить VDS, чтобы получить доступ к новым ресурсам.
Опять же, почему вы думаете, что мы все время бегаем в магазин? Вообще то в нормальных компаниях, применяется практика плановых закупок. Когда оцениваются текущие запасы, темпы роста и потребления ресурсов. Выделяется необходимый бюджет раз в месяц на пополнение склада комплектующих. В случае роста, вам тоже предстоит к этому привыкать, не думаю, что вы обладаете безграничным парком серверов.
Зачем ждать, заходи, нажимай кнопочку, и получай VDS по выбранному тарифу в автоматическом режиме. Неужели, Вы думаете, что мы создаем виртуалки вручную. У нас тоже есть пакет панелей от ISPsystem. Они, не такие красивые, но уж, заказать виртуаклку клиент может себе сам, сменить тариф, увеличить ресурсы, оплатить, наконец. И мы не думаем, влезет клиент на сервер или нет, этим VMmanager занимается, он сам выбирает наименее нагруженную ноду.
Пока, все преимущества, сводятся, к хорошо, проработанной панели. Но ничего, принципиально нового, Вы не огласили. Все хостеры сейчас пользуются автоматизированными панелями, идиотов, делать все руками среди серьезных хостеров нет. Кто-то, покупает готовые решения, и допиливает их под себя, кто-то, как вы, пишет свое.
Дизайн панели, хорош, с этим не спорю, но мы начинали дискуссию о различиях в реализации архитектурного решения VDS на базе облака (квазиоблака) и традиционного решения в виде стэндэлон сервера.
Просто, вы пытаетесь заявить, что у вас архитектура, построена на уровне HiEnd-класса, но при этом, Вы претендуете на нижний ценовой сегмент.
Я знаю, сколько стоят СХД, сколько стоят коммутаторы 10G и 40G, сколько стоят сервера, стоимость SSD-дисков (кстати, странный выбор Intel 120GB SSD 330, далеко не самое оптимальное решение с точки зрения, себестоимости 1 Гб). Зная, себестоимость, сборки квазиоблака для нескольких десятков фронтов (просчитывали), могу сделать вывод: или тарифы нерентабельны, или реализация архитектуры с аппаратной точки зрения не так идеальна, как вы ее пытаетесь представить.
UnixBench минимального тарифа:
CloudMouse 512Mb:
System Benchmarks Index Values BASELINE RESULT INDEX
Dhrystone 2 using register variables 116700.0 23305958.2 1997.1
Double-Precision Whetstone 55.0 3014.0 548.0
Execl Throughput 43.0 4815.3 1119.8
File Copy 1024 bufsize 2000 maxblocks 3960.0 895131.7 2260.4
File Copy 256 bufsize 500 maxblocks 1655.0 240272.6 1451.8
File Copy 4096 bufsize 8000 maxblocks 5800.0 2154236.5 3714.2
Pipe Throughput 12440.0 1620305.5 1302.5
Pipe-based Context Switching 4000.0 300230.9 750.6
Process Creation 126.0 19994.7 1586.9
Shell Scripts (1 concurrent) 42.4 5426.5 1279.8
Shell Scripts (8 concurrent) 6.0 728.2 1213.6
System Call Overhead 15000.0 2284270.5 1522.8
========
System Benchmarks Index Score 1396.1
Для сравнения, standalone решение:
Ihor 512Mb:
Dhrystone 2 using register variables 116700.0 26708265.1 2288.6
Double-Precision Whetstone 55.0 3111.3 565.7
Execl Throughput 43.0 3566.1 829.3
File Copy 1024 bufsize 2000 maxblocks 3960.0 791498.3 1998.7
File Copy 256 bufsize 500 maxblocks 1655.0 214095.1 1293.6
File Copy 4096 bufsize 8000 maxblocks 5800.0 1575416.9 2716.2
Pipe Throughput 12440.0 1549392.5 1245.5
Pipe-based Context Switching 4000.0 266740.1 666.9
Process Creation 126.0 9954.7 790.1
Shell Scripts (1 concurrent) 42.4 4114.7 970.5
Shell Scripts (8 concurrent) 6.0 551.2 918.6
System Call Overhead 15000.0 1828640.9 1219.1
System Benchmarks Index Score 1150.5
Можете посмотреть наши тарифы. Сервера - Россия, Москва.---------- Добавлено 10.07.2014 в 01:22 ----------
клаудмаус.ком - ДЦ EvoSwitch, Амстердам.
cloudmouse, С удовольствием, апайте пожалуйста. Я только за. Согласен разобрать все вопросы по VDS. Вполне возможно, узнаю много интересного, так же как и вы. Не хотите вести обсуждение в своей ветке, можно переместиться в мою. Согласны? Если нет, можете проигнорировать мой пост.---------- Добавлено 10.07.2014 в 00:07 ----------Гарри Gudini, Я не против, но хозяин ветки не велит. Хотя мнение ТС относительно того, почему он считает VDS standalone и VDS квазиоблако абсолютно разными услугами которые не подлежат сравнению, так и осталось не ясным. Мы провели тесты у себя и TC, результаты производительности примерно одинаковые, у ТС процы чуть по шустрее, скорость работы дисковой подсистемы идентична.
Не, ну давайте еще тред по апаем, а то, если так быстро сливаться, то уползет в недра серчей ;).
Если я не прав, обоснуйте. Все перечисленные Вами технологии мне знакомы, может быть, не во всех тонкостях их настройки, но это и не мои обязанности. Многие у нас в продакшне, другие, на тестовых стендах периодически крутятся. Я обрисовал схему исходя из минимального количества оборудования, которое, обычно используется на этапе стартапа. Я же не знаю, на сколько СХД у вас растянут ceph. Вы эту информацию умалчиваете. Опять же, насколько у вас распределенная схема размещения СХД, если их больше чем одно. EvoSwitch, конечно, надежный ЦОД, но, облако, подразумевает распределенность ресурсов в пространстве, т.е. это, как минимум, 2 ЦОДа, достаточно удаленных друг от друга в пространстве.
Если я не прав в чем то, и вы это обоснуете, то соглашусь всенепременно, я не считаю себя всезнайкой, и всегда готов учится. Но я люблю честность. Все перечисленные Вами технологии давно известны и широко используются многими хостерами, в том числе и здесь присутствующими. Вы сделали хорошее, добротное решение (во всяком случае, внешне, оно так и выглядит). Так и скажите. Но не надо преподносить себя так, как будто вы совершили революцию в хостинге (ИМХО, однако тон ваших ответов, наводит на предположение именно такого подтекста). До вас уже были DigitalOcean и Flops, как минимум.