Так коннектор всего один, ширина канала не позволит, да и туда-сюда коннектор переключать часто - сотрётся или заржавеет. Придётся идти к коннекторному ремонтнику обращаться, а это уже реально залёт. Да и изначальный дедик на такой ситуации может начать переезжать под разные коннекторы по разным дата-центрам.
не слушай их, дорога к дедику.. дорога в ад.
Будущее за облачными сервисами.
Зачем CDN 56 ядерный (112 поточный) с 512 рам? Если там важно количество серверов распределенных по гео?
Онлайн кинотеатры хостятся на одной машине? Или зачем всем серверам онлайн кинотеатра 100 Gbit анлим на раздачу?
Для транскодирования. Есть же еще и потоковое вещание телеканалов. Крупные студии/проекты имеют таких серверов сотни , разумеется распределенные по гео. (но и в одной точке их может стоять множество)
Всем серверам разумеется не нужен, только нодам с контентом
Ну спросите их , если интересно , насколько популярные такие конфигурации
https://www.fdcservers.net/dual-epyc-96tb
Подумайте о аудитории типа coub.com, tiktok.com, rutube.ru, ivi.ru , okko.tv, megogo.net и подобные сервисы. Для них сервер с 100Gbit это мелочь и семечки.
Вы мыслите не теми объёмами, для ряда специфических задач 100Gbit/s это не "здоровый и толстый" это как раз обычный такой стандартный сервак.
я на многих крупных проектах, правда не международных побывал, готовность это x2 переплата а то и больше, ни о какой экономии вообще речи не идет, так что вообще не понимаю зачем вы приплетаете крупные проекты и экономию на серверах.
Минутку.. позволю себе уточнить.. Ваши крупные проекты работали на арендованных серверах? Не ставили свои на "коло" а именно арендовали сервера в ДЦ ? )))
ну давайте остановимся на то что это ваши фантазии и реальных прецедентов на руках у вас нету, у селектела не один ДЦ, машины связаны виртуальные, набрать их можно в любом ДЦ чтобы масштабироваться, а то что вы там где то своим клиентам 40 ядер виртуальных на одном физическом делаете еще не значит что все так делают
Давайте, как и то что у вас нет фактов утверждающее обратное.
Мы вообще не занимаемся предоставлением облачных сервисов, что за фантазии ?
Для чего может понадобится такая машина стоимостью в $5999 в месяц? Каковы ваши кейсы?
Онлайн кинотеатры, CDN, скрабинг центры.
Тут какой то странный спор ведется на самом деле. Каждый со своей колокольни конечно но всё же.
Вы заблуждаетесь в направлении мысли. Клоуд конечно будет дороже если сравнивать характеристики в лоб, но клауд так не используется. Я не говорю конечно же что каждый вордпресс надо заливать в облако, но до облака надо дорасти, с него обычно начинать нет смысла.
1) Вот вы предложили конфигурацию, давай те в стоимость её накинем развертку кластера кубера на 3 машинах и их сопровождения? Сколько надо людей чтобы 24/7 смотреть за таким кластером? Я так понимаю вы в стоимость бареметал это не вложили конечно же?
За проектом в клауде точно так же необходимо следить и раскатывать, там точно такой же набор специалистов, за исключением 1 позиции.
я не ошибся в цифре (5999), там 100 гигабитный безлимитный канал с утилизацией 100% 24/7/365
Это уже какой то маленький специфический проект , в виде цветочного магазина ? Таргет не на него. Цветочному магазину и не нужен кубер, ему хватит "shared hosting"
У онлайн кинотеатров и международных проектов утилизация ресурсов +- равномерная в любое время дня и суток из за разницы часовых поясов на планете )
Мы же про крупные проекты говорим, ну откуда там х500, х2 ? ок реально. Крупный проект знает заранее когда будут эти самые Х2 и заранее к этому готов
В общем если считать, то надо считать в кейсах в которых клауд используют, а не просто в лоб по характеристикам.
Я именно эту мысль и поддерживаю, каждый кейс нужно считать отдельно. Где то клауд от AWS будет НАМНОГО предпочтительнее. Но где то применение AWS будет просто самоубийством.
Я через многое из этого прошел, и самый смак был когда в кластер надо было докинуть машин чтоб черную пятницу выдержать, а селектел сказал что в этом ДЦ у него нет больше серверов и надо ждать хз сколько. Как мы платили по 400к в месяц за админов кластера и так далее. Бареметал хорош особенно когда его хочется грузить 24/7, но в вэбе таких задач на самом деле очень мало
Чтоб было интереснее - скиньте кто желаемые параметры системы, а я ее посчитаю на AWS - сравним.
16-ядерный сервер на 32 гига памяти + 100гиг ССД+ инстанс для Постгрес на 100 гигов обойдется в 400 долларов в месяц, навскидку
56 ядерный (112 поточный) с 512 рам + 96 TB NVME + 100 Gbit анлим на раздачу. с возможностью грузить порт 24/7 в полку (среднемесячная утилизация в исходящем направлении 80%)
Ты считаешь, что на своем железе об этом не нужно думать?
Не выдавай свои мысли за мои, я такого не говорил
Ну все, не повезло мне, не попасть в вашу ценную контору. Пошел рыдать. Дырокол то хоть в аренду взяли?
Слово "повезло" очень точно описывает всё положительное что с тобой происходило
Ты привет какие-то цифры, оторванные от действительности. думаешь тебя можно после этого всерьез воспринимать? Я работал как минимум на 2-х проектах с миллионными бюджетами, которые именно со своих серверов переехали на Амазон. Твои умозаключения - рассуждения профана
Т.е. из за того что такое чучело как ты работало "как минимум в 2х проектах" они были вынуждены переехать в многократно более дорогую инфру ? И ты считаешь это достижением ?
Браво, пожалуйста продолжай там работать. Или всё ? выгнали уже ? ах да.. ведь "как минимум в двух" работал
PS , не ну разумеется есть проекты где AWS реально будет оптимальным решением. Я даже допускаю что таких проектов может быть очень много. Более того, вероятнее всего это даже финансово может оказаться более выгодным если учитывать полный спект затрат на IT структуру компании. Но AWS не панацея от всех болезней и уж точно не гарантированно лучшее решение в каждом кейсе.
Но я не уверен что ты в принципе способен мыслить.
Насколько нужно быть криворуким, чтобы достичь такого результата, когда RDS multi-AZ DR настраивается в пару кликов? При желании можно достичь 99.999% по отказоустойчивости
Так у меня и права водительские есть - это не значит что я водителем работаю. Для управления проектами это минимально желательный сертификат. Печально что с такими знаниями как у тебя лезут еще и поучать других.
Стартапы блин, 60 процентов американского рынка automotive стартапа)))
ДружОк, успокой свой печатный станок, мои знания совершенно из другой сферы. Это во первых, во вторых я не говорил про какие то потери у проектов, я сказал о качестве и надежности AWS как инфраструктуры в отдельно взятой точке. Но если ты сравниваешь отдельно взятый бареметал и AWS RDS multi-AZ DR то у меня к тебе много вопросов касательных здоровья.
Посыл в том что нельзя разместить проект на AWS и надеяться что "амазон никогда не упадет". Придется один хрен думать о отказоустойчивости и о правильной архитектуре всего проекта. С таким же успехом можно нахватать бареметал на хетзнер/овх/серверс.ком/селектел/любой_цод_в_другой_локации и настроить репликации/балансировку.
А таких как ты , с короной на башке, мы из конторы вышвыриваем до конца испытательного срока. Ибо в 99% случаев , подобные персонажи очень жидко обсираются , нанося серьезный ущерб, а до тех пор пока работают, выкачивают из конторы бабки на безумно неэффективные , за то простые и быстрые в реализации решения .
PS всё что дает AWS это скорость и удобство развертывания + быстрое масштабирование. За это платиться очень большими чеками. Во многих конкретных кейсах, намного более экономически целесообразно поднимать свою инфру на базе бареметал геораспределенных цодов.
А с чего ты решил, что я девопс?
Исходя из твоего поста выше
.* Пойду выкину сертификат AWS sertified devops в мусорку... .*