team-voice

team-voice
Рейтинг
242
Регистрация
07.11.2016
Shelton724 #:

Так коннектор всего один, ширина канала не позволит, да и туда-сюда коннектор переключать часто - сотрётся или заржавеет. Придётся идти к коннекторному ремонтнику обращаться, а это уже реально залёт. Да и изначальный дедик на такой ситуации может начать переезжать под разные коннекторы по разным дата-центрам.

не слушай их,  дорога к дедику..  дорога в ад.

Будущее за облачными сервисами.

Aisamiery #:

Зачем CDN  56 ядерный (112 поточный)  с 512 рам? Если там важно количество серверов распределенных по гео?

Онлайн кинотеатры хостятся на одной машине? Или зачем всем серверам онлайн кинотеатра  100 Gbit анлим на раздачу?

Для транскодирования. Есть же еще и потоковое вещание телеканалов. Крупные студии/проекты  имеют таких серверов сотни  , разумеется распределенные по гео. (но и в одной точке их может стоять множество)

Всем серверам разумеется не нужен, только  нодам с контентом

Aisamiery #:

ну и опять же ваш сервер за $5999 не нужен ни цветочному магазину не международной компании, я вообще не представляю кому нужен именно в такой конфигурации сервер.

Ну спросите их , если интересно  , насколько популярные такие конфигурации

https://www.fdcservers.net/dual-epyc-96tb

Подумайте о аудитории типа coub.com,  tiktok.com,   rutube.ru, ivi.ru , okko.tv, megogo.net   и  подобные сервисы.  Для них   сервер с 100Gbit это мелочь и семечки.


Aisamiery #:

Если полоса пропускания, то там балансир, ему нафиг не нужно 96Тб NVME, за ним может стоять уже хоть сотня серверов приложения подключенной внутренней не тарифицируемой сетью по сути. Короче я хз в какую архитектуру можно воткнуть такой сервер, лучше будет несколько более маленьких чем один "здоровый и толстый".

Вы мыслите не теми объёмами, для ряда специфических задач 100Gbit/s  это не "здоровый и толстый" это как раз    обычный такой стандартный сервак.

У нас подобных конфигураций в москве сдано около 300, а мы для этого рынка  меньше чем  "капля в море"
Aisamiery #:

я на многих крупных проектах, правда не международных побывал, готовность это x2 переплата а то и больше, ни о какой экономии вообще речи не идет, так что вообще не понимаю зачем вы приплетаете крупные проекты и экономию на серверах. 


Минутку..  позволю себе уточнить..  Ваши крупные проекты работали на арендованных серверах? Не ставили свои на "коло" а именно арендовали сервера в ДЦ ? )))

Aisamiery #:

ну давайте остановимся на то что это ваши фантазии и реальных прецедентов на руках у вас нету, у селектела не один ДЦ, машины связаны виртуальные, набрать их можно в любом ДЦ чтобы масштабироваться, а то что вы там где то своим клиентам 40 ядер виртуальных на одном физическом делаете еще не значит что все так делают


Давайте, как и то что у вас нет фактов утверждающее обратное.

Мы вообще не занимаемся  предоставлением облачных сервисов, что за фантазии ?

Aisamiery #:

Для чего может понадобится такая машина стоимостью в $5999 в месяц? Каковы ваши кейсы?


Онлайн кинотеатры,  CDN,  скрабинг центры.

Aisamiery #:

Тут какой то странный спор ведется на самом деле. Каждый со своей колокольни конечно но всё же.

Вы заблуждаетесь в направлении мысли. Клоуд конечно будет дороже если сравнивать характеристики в лоб, но клауд так не используется. Я не говорю конечно же что каждый вордпресс надо заливать в облако, но до облака надо дорасти, с него обычно начинать нет смысла.

1) Вот вы предложили конфигурацию, давай те в стоимость её накинем развертку кластера кубера на 3 машинах и их сопровождения? Сколько надо людей чтобы 24/7 смотреть за таким кластером? Я так понимаю вы в стоимость бареметал это не вложили конечно же?

За проектом в клауде точно так же необходимо следить и раскатывать, там точно такой же набор специалистов, за исключением 1 позиции.

2) Предположим что ваша конфигурация нужна проекту в черную пятницу, когда приходить х10 нагрузки (хотя на самом деле пики сильно выше чем х10), то в остальном случае проекту хватит  16-ядерный сервер на 32 гига памяти за $400 итого чисто на цифрах получится экономии на ~$2500 в год экономичнее (там же $599 имелось ввиду?) и это мы еще не учитываем стоимость людей сопровождения бареметал. Много у вас специалистов, которые смогут построить сервис уровня RDS?

я не ошибся в цифре (5999), там 100 гигабитный безлимитный канал с утилизацией 100%  24/7/365

3) А теперь учтем, что например 50% времени ресурсы в принципе простаивают и чтобы обеспечить работоспособность, например ночью достаточно вообще машинки за $100?

Это уже какой то маленький специфический проект  , в виде цветочного магазина ?  Таргет не на него.  Цветочному магазину и не нужен кубер, ему хватит "shared hosting"

У онлайн кинотеатров и международных проектов  утилизация ресурсов  +- равномерная в любое время дня и суток из за разницы часовых поясов на планете )

4) А дальше представим, у вас пришла нагрузка х500, как быстро вы сможете на своих бареметал докидать кластер серверами? Достаточно быстро чтобы сервис не лег и не было простоев?

Мы же про крупные проекты говорим, ну откуда там х500,  х2 ? ок реально.  Крупный проект знает заранее когда будут эти самые Х2  и заранее к этому готов


В общем если считать, то надо считать в кейсах в которых клауд используют, а не просто в лоб по характеристикам.

Я именно эту мысль и поддерживаю, каждый кейс нужно считать отдельно.  Где то клауд от AWS будет НАМНОГО предпочтительнее. Но где то  применение AWS будет просто самоубийством.



Я через многое из этого прошел, и самый смак был когда в кластер надо было докинуть машин чтоб черную пятницу выдержать, а селектел сказал что в этом ДЦ у него нет больше серверов и надо ждать хз сколько. Как мы платили по 400к в месяц за админов кластера и так далее. Бареметал хорош особенно когда его хочется грузить 24/7, но в вэбе таких задач на самом деле очень мало

Если говорить именно про селектел  то с клаудом в селектеле может быть идеентичная ситуация, под нодами виртуализации  стоит точно такой же бареметал, и в моменты черной пятницы точно так же как и вы, куча проектов начинают на "неделю"  увеличивать ресурсы х10, и предустановленных нод  может точно так же не хватить (при этом вы о этом узнаете только по тормозам) ибо для виртуализации создать 40 виртуальных ядер на оставшееся 1 физическое.... задачка на "раз плюнуть"
Sly32 #:

Чтоб было интереснее - скиньте кто желаемые параметры системы, а я ее посчитаю на AWS - сравним. 

16-ядерный сервер на 32 гига памяти + 100гиг ССД+ инстанс для Постгрес на 100 гигов обойдется в 400 долларов в месяц, навскидку

56 ядерный (112 поточный)  с 512 рам  + 96 TB NVME  + 100 Gbit анлим на раздачу. с возможностью грузить порт  24/7 в полку (среднемесячная утилизация в исходящем направлении 80%)


указанная выше конфигурация в виде бареметал стоит 5999$ в месяц включая VAT, что на счет AWS ?
Sly32 #:

Ты считаешь, что на своем железе об этом не нужно думать?

Не выдавай свои мысли за мои,  я такого не говорил

Sly32 #:

Ну все, не повезло мне, не попасть в вашу ценную контору. Пошел рыдать. Дырокол то хоть в аренду взяли?

Слово "повезло"   очень точно описывает всё положительное что с тобой происходило


Sly32 #:

Ты привет какие-то цифры, оторванные от действительности. думаешь тебя можно после этого всерьез воспринимать? Я работал как минимум на 2-х проектах с миллионными бюджетами, которые именно со своих серверов переехали на Амазон. Твои умозаключения - рассуждения профана

Т.е.  из за того что такое чучело как ты работало  "как минимум в 2х проектах"  они были вынуждены переехать в многократно более дорогую инфру ?  И ты считаешь это достижением ?

Браво, пожалуйста продолжай там работать.  Или всё ? выгнали уже ? ах да..  ведь "как минимум в двух"    работал


PS , не ну разумеется есть проекты где AWS реально будет  оптимальным решением.  Я даже допускаю  что таких  проектов может быть очень много.  Более того, вероятнее всего это даже финансово может оказаться более выгодным  если учитывать  полный спект  затрат на IT структуру компании.  Но AWS не панацея от всех болезней и уж точно не гарантированно  лучшее решение в каждом кейсе.

Но я не уверен что ты в принципе способен мыслить.

Sly32 #:

Насколько нужно быть криворуким, чтобы достичь такого  результата,  когда RDS multi-AZ DR настраивается в пару кликов? При желании можно достичь 99.999% по отказоустойчивости

Так у меня и права водительские есть - это не значит что я водителем работаю. Для управления проектами это минимально желательный сертификат. Печально что с такими знаниями как у тебя лезут еще и поучать других.

Стартапы блин, 60 процентов американского рынка automotive стартапа)))

ДружОк,  успокой свой печатный станок, мои знания совершенно из другой сферы. Это во первых, во вторых я не говорил про какие то потери у проектов, я сказал  о качестве и надежности AWS как инфраструктуры в отдельно взятой точке. Но если ты сравниваешь   отдельно взятый бареметал  и  AWS RDS multi-AZ DR то у меня к тебе много вопросов касательных здоровья.

Посыл в том что нельзя  разместить проект на AWS и надеяться что "амазон никогда не упадет". Придется один хрен думать о отказоустойчивости и о правильной архитектуре всего проекта.  С таким же успехом можно нахватать бареметал на хетзнер/овх/серверс.ком/селектел/любой_цод_в_другой_локации  и настроить репликации/балансировку.

А таких  как ты , с короной на башке, мы из конторы вышвыриваем  до конца испытательного срока. Ибо в 99% случаев , подобные персонажи очень жидко обсираются ,  нанося серьезный ущерб, а до тех пор пока работают, выкачивают из конторы бабки на безумно неэффективные , за то простые и быстрые в реализации решения .


PS  всё что дает AWS  это скорость и удобство развертывания + быстрое масштабирование.   За это платиться очень большими чеками.  Во многих  конкретных кейсах,  намного более экономически целесообразно поднимать  свою инфру на базе бареметал   геораспределенных цодов.

Sly32 #:

А с чего ты решил, что я девопс?

Исходя из твоего поста выше

Sly32 #:

.*  Пойду выкину сертификат AWS sertified devops в мусорку... .*

Всего: 2354