Aisamiery

Aisamiery
Рейтинг
319
Регистрация
12.04.2015
Александр #:

Условно бесплатная. Что-то серьезнее влога домохозяйки на Тильде не сделать.

Вы наверное это заявляете как эксперт по тильде создавший не один десяток проектов на ней и досконально изучив все возможности я так понимаю? Или это из разряда "слышал звон не знаю где он"? =))

Vladimir SEO #:
откройте выдачу где есть хоть какая то конкуренция - и попробуйте там найти тильды и конструкторы остальные и сразу ответ вам будет

они там будут среди первых 3х позиций и последних 3х, сколько там нынче позиций под директ отдано? То что их там в серп нет это ведь не говорит что это невозможно?

alaev #:
Но лучше сайт на движке, а не на конструкторе. Как минимум не придётся кормить дармоедов.

Так вы наверное и сайты хостите дома, зачем кормить дармоедов хостеров? Тильда так то бесплатная =)

Предлагаю вам проверить и отписаться с какими трудностями столкнетесь и возможно ли это в целом или нет
NoMoreContent #:
Как, интересно, такое может быть реализовано, надо почитать...

Можете начать от сюда https://ru.wikipedia.org/wiki/VRRP

NoMoreContent #:

ОП, похоже, хочет быть защищенным от падений именно ДЦ.

А когда падает ДЦ, то балансировщики должны упасть вместе  с ним.

Вы не вникли в услугу, балансировщик с резервированием это значит что если упадет ДЦ с балансировщиком, то IP адрес уйдет другому балансировщику в другом ДЦ, вам как клиенту ничего делать не надо для этого, только платить.

NoMoreContent #:
В Селектеле балансировщики держат, как понял, 34000RPS HTTP или 9000 HTTPS. Это не так, чтобы много.

Это много, проектов такого масштаба в рунете можно пересчитать по пальцам. Но скиньте ссылку где вы это прочитали, там написано что используют HAProxy, а про производительность его можно прочитать например тут https://www.haproxy.com/blog/haproxy-forwards-over-2-million-http-requests-per-second-on-a-single-aws-arm-instance 

PS. Я понял где вы прочитали, но там есть ссылочка на запрос кастомной конфигурации балансировщика если требуется

NoMoreContent #:
Исходя из этих значений, положить его с помощью спец.сервиса сможет даже небогатый школьник

Не очень понимаю при чем тут это, оно не призвано бороться с паразитным трафиком, под 9000 RPS я так предполагаю скорее всего умрет сервер за балансировщиком раньше.

NoMoreContent #:
UPD.: Ну вот, по облачным базам в Селектел. Три хилых 16-ядерных сервера в СПб

С чего вы взяли что они хилые?

NoMoreContent #:
Как сделать географическое распределение пока не понял.

Вам его как клиенту делать не надо

NoMoreContent #:
И за эту цену я наверно собрал бы конфигурации поинтереснее на условном AMD 7443P.

Никто не утверждает, что облако это недорого, облака это про другое, это когда вы используете например 3 дохлых реплики на 2 ядра и 4 гига и в случае прилета нагрузки, ваша БД запускается на инстансах в 16 ядер, а когда нагрузка падает то оно снова работает на 2 ядрах. Дело в том, что вам не надо платить всегда такую сумму, 90% времени эти ресурсы у вас будут простаивать, но в вашем случае если вы вбруг упретесь в свои ресурсы, то за минуту еще один железный ящик вам никто не предоставит в отличии от облачной БД. Вы не путайте услуги и пользуйтесь ими правильно и с умом

NoMoreContent #:
Да никак мы это не реализуем. Я о задаче такой сложности читал только один раз, когда обсуждалось как транснациональные корпорации из ТОП-10 организуют доступность своих сервисов по всему миру.

Да задача на самом деле не сложная, по крайней мере из того что вы процитировали. Не очень понятен только почему разный IP. Самый тривиальный вариант это балансировщик с резервированием, раньше настраивали VRRP, да и в целом селектел предоставляет плавающий IP, перекидывать его в целом может какой нибудь супервизор который следит за живыми серверами. Далее за балансировщиком стоят 2 виртуалки одна в Питере другая в Москве там запущен код, далее заказываем облачную БД с 2 доп репликами и в целом тут можно остановится, бложик на вордпрессе будет обходится порядка ~15к рублей в месяц, за то без простоев и с переключением. Хз что там за топ 10, но сейчас это задача решается достаточно просто, но не дешево.

webinfo #:

Ну такие глобальные, с полной потерей данных, - действительно редкость. Но случаются и чуть менее серьёзные, типа как мастерхост простаивал неделю из-за разборок между собственниками. Гораздо чаще - когда в ДЦ  внезапно "электричество кончилось" или экскаватор оптоволоконку покромсал. А уж простои на полчаса - час -два - вообще сплошь и рядом.
Тема, к сожалению, давно ушла в сторону от того, о чём написано в её названии и в стартпосте, но по смыслу темы имеются в виду как раз серверы в разных ДЦ.

Когда вы сознательно выбираете предложения на рынке из разряда по дешевле (лоукостеров или как там), вы сознательно идете на риск что кончится электричество, удалятся все данные и прочее, ведь так? Я вначале в своих первых сообщениях написал что выбор в сторону проверенных ДЦ и больших хостеров, а так же на физических машинах в целом позволяет держать аптайм на уровне не ниже 99.9, а в основном и выше, на селектеле опять же повторюсь, на одном проекте у меня с 2019 года аптайм 99.999. а с 2017 простой был у селектела максимум 2ч когда там грохнулось какое то сетевое оборудование у ДЦ.

webinfo #:
Вспомним OVH, 2021 год.

Почему то репликацию пытаются натянуть на отказоустойчивость, оно не для этого, репликация нужна для распределения нагрузки запросов на чтение. Можно поставить какую то реплику в другой резервный ДЦ и в обычной работе приложения её не использовать или использовать для создания бэкапов и так далее, но в целом это очень редкие ситуации типа овх 2021 хотя я не знаю что это и никогда там не хостился. в большинстве случаев хватает бэкапа в другой ДЦ эффект примерно тот же, а если его делать правильно и нужными инструментами то развернуть его будет не сильно то и сложно в сравнении того чтоб раз в жизни переключить приложение на другой ДЦ. При том с учетом того что это еще никто и тестировать постоянно не будет, то то что это нормально переключится еще не факт.

Snake800 #:
Насколько вообще практикуется выделение локальной линии между ДЦ для клиентов? Чтобы на серверах стояли интерфейсы с внутренними IP для взаимодействия с серверами клиента в соседнем ДЦ? Или я слишком много хочу?

В селектеле есть, мы используем. Если говорить про виртуалки есть еще в 1cloud, видел но не пробовал

Snake800 #:
Когда других вариантов нет - белыми списками IP, авторизацией и защитой от брутфорса. При условии что трафик шифруется.

В вашем случае у вас шаред канал скорее всего, который сам по себе для репликации не годится, так как между репликами может ходить огромное количество данных, при том чем больше реплик тем больше данных. В общем использовать шаред каналы для репликаций идея прям совсем грустная, лучше всего делать репликации между серверами которые стоят в одном ДЦ и подключены между собой отдельным кабелем в отдельные порты.

Snake800 #:
Хорошо, но не между всеми ДЦ это возможно. Когда один сервак в Питере, а другой - во Владике, остаётся только VPN, а это такая себе по надёжности локалка. На обычные запросы к СУБД или серверу, конечно, есть ещё вариант использовать (дырчатое) API, но с синхронизацией уже сложнее.

Непонятно какие проблемы вы решаете таким разбросом. Разные ДЦ обычно используют для отказоустойчивости, ваше распределение через всю страну неэффективно в целом. Обычно сервера для статики ставят поближе к пользователю, для этого есть CDN. Если для вас критичен пинг, то вы ставите 2 отдельных проекта один в Питере один во Владике и уже придумываете способ синхронизации нужных данных, но людей с Владика вы ведете исключительно на сервер во Владике, а с Питера исключительно в Питер, так как пинг критичен, репликация БД вам тут не нужна, у вас она из-за сетевых задержек постоянно будет отставать при том скорее всего критично. Я не занимаюсь игровыми проектами, поэтому в целом нам хватает локаций Питер-Москва чтоб построить отказоустойчивый кластер, хотя наша розница и клиенты так же есть во Владивостоке.

PS. У меня есть проект в ОАЭ, так сервер под проект вообще живет в Германии так как чет ничего нормального поближе не нашлось и ничего

Всего: 4110