NoMoreContent

NoMoreContent
Рейтинг
30
Регистрация
14.05.2023

Для Ирландии от России физ. лицо предоставляет фото паспорта РФ. 

Страницы с именем и с пропиской.

Там, в Адсенсе, прямо так и написано. Бессрочно. 

Aisamiery #:

Можете начать от сюда https://ru.wikipedia.org/wiki/VRRP

Спасибо, это один из самых интересных материалов по IT, что я читал в этом месяце.

С первой итерации не получилось понять как всё это взаимодействует с TCP-IP, какой путь проходит пакет и много других деталей. Но даже для далёкого от сетей человека понятно в каком направлении следует изучать дальше.

Первое понимание такое:

1. Несколько маршрутизаторов, объединенных в один виртуальный, находятся на одном IP и получают одинаковые пакеты.
2. Между собой они решают, кто обработает эти пакеты и отправит дальше.
3. Один выбранный маршрутизатор обрабатывает пакет, остальные ждут.
4. Если некоторые маршрутизаторы выключены, то оставшиеся продолжают работать по тому же принципу в сответствии с их приоритетами.

Общие принципы описаны верно?

Если так, то пока непонятно, возможно ли назначить один IP маршрутизаторам из разных датацентров? Похоже, что для этого в каждом из двух ДЦ должна быть одна AS. Теоретически это наверно возможно в случае, когда оба ДЦ принадлежат одной компании. 

Один комментарий на хабре также похоже намекает, что обрыв аплинка одного из маршрутизаторов, который не выключен, без дополнительных настроек и/или железа может приводить к появлению blackhole для пакетов.

Кстати, вариант - поднимать инстансы с приложением, у которых локальная база будет в SQLITE, а важные изменяемые данные - подтягиваться и обновляться с управляющего сервера по API с БД в надёжном ДЦ. 

Если нагрузки небольшие, управляющий сервер может  сам создавать и запускать такие инстансы в работу по мере их падения, а также время от времени актуализировать локальные БД для повышения их производительности.

Время на переключение DNS будет не слишком малым. Но можно поднять свой DNS с API и выставить на нём минимальное TTL. Либо найти провайдера DNS с API и возможностью устанавливать такое минимальное TTL.

Legal notice: Конечно же, противозаконное использование таких технологий недопустимо !0!

Aisamiery #:

балансировщик с резервированием это значит что если упадет ДЦ с балансировщиком, то IP адрес уйдет другому балансировщику в другом ДЦ, вам как клиенту ничего делать не надо для этого, только платить.

Это интересная штука.
Раньше знал только про FailoverDNS, которые перключаются не мгновенно, а за пару минут или даже сильно дольше. Как, интересно, такое может быть реализовано, надо почитать...

Aisamiery #:

балансировщик с резервированием, 

ОП, похоже, хочет быть защищенным от падений именно ДЦ.

А когда падает ДЦ, то балансировщики должны упасть вместе  с ним.
Иначе зачем разносить сервера именно по разным ДЦ?

Если датацентр работает хорошо, вместе со всеми своими балансировщиками, то наличие копии приложения в другой локации поможет мало.

Балансировщик может помочь решить проблемы горизонтального масштабирования в рамках одного ДЦ.

В задаче ОПа нужно либо работать на уровень выше - это DNS, либо как условный Google переходить на железные сверхпроизводительные балансировщики где-то в изолированных защищенных многократно резервированных строениях, которые никогда не падают, не перезагружаются и хитро связаны между собой и серверами.

В Селектеле балансировщики держат, как понял, 34000RPS HTTP или 9000 HTTPS. Это не так, чтобы много. Исходя из этих значений, положить его с помощью спец.сервиса сможет даже небогатый школьник (извините, настоящие школьники, речь не о вас, это старый IT-термин, обозначающий молодых, безответственных хулиганов, которым по причине малого возраста ничего не грозит даже в случае поимки).

В жизни мне дважды доводилось сталкиваться с одним типом атак, от которых шевелились волосы на голове. Это когда нагрузка на сами сервера в порядке, а сеть накрывает волнами непонятных снижений пропускной способности. Может быть это были какие-нибудь DNS-амплификации или атаки непосредственно на сетевые устройства на более низких уровнях OSI. Сложно сидеть и понимать, что ничего не можешь сделать.  А тут - чужой балансировщик, который непонятно как настроен, что на нем происходит и как его защищать. "Школьники" кинут копейку крипты на стpeсcбот и начнётся веселье. И что делать, когда всё уже завязано на этом балансировщике?

Облачная БД - это интересно. Раньше запросы к ним были значительно дороже, чем при использовании баз данных на своих серверах, а скорость доступа была чуть ниже. Было бы интересно посмотреть насколько ситуация стала лучше за несколько лет.

UPD.: Ну вот, по облачным базам в Селектел. Три хилых 16-ядерных сервера в СПб

PostgreSQL 14
Санкт-Петербург
32 vCPU
128 ГБ RAM
1024 ГБ диск
Подсеть /29 (5 адресов IPv4)
2 реплики
Итого: 243 855,13 ₽/мес.

Как сделать географическое распределение пока не понял.

И за эту цену я наверно собрал бы конфигурации поинтереснее на условном AMD 7443P.

Если посмотреть на разные сообщения разных авторов, можно заметить, что мы одновременно обсуждаем несколько разных понятий из разных направлений проектирования и конструирования инфраструктуры, порой даже находящихся на разных уровнях абстракций.

Каждая из этих тем довольно сложна. А когда они перемешиваются, сложность коммуникации еще более возрастает.

Резервирование, масштабирование, надёжность, мониторинг, доступность, устойчивость к сбоям, удобство и скорость развертывания, применимость для разных типов приложений и в разных ситуациях, архитектура баз данных, взаимодействие с ДЦ и многие другие темы - по каждой из них можно писать монографию и даже в ней не охватить полностью все многочисленные детали.

Информации о проекте почти нет.

IP разные, VDS-ы тоже 

на разных хостингах

, домен один и тот же.
Требуется «бесшовно» переключать одну машину на другую при падении «головной».
Как вы это реализуете?

Да никак мы это не реализуем. Я о задаче такой сложности читал только один раз, когда обсуждалось как транснациональные корпорации из ТОП-10 организуют доступность своих сервисов по всему миру.

Насколько помню (так как читал давно), у них используется спец.железо, на котором строится некая сетевая структура. Спецификации как железа, так и организации сети в то время в паблике я не находил, вероятно проприетарные.

Можно (но не нужно) пойти простым, очевидным путём. Подключить какой-нибудь сервис DNS Failover (и верить, что не упадёт он).
Взять и продублировать всю инфраструктуру на два ДЦ, настроить репликацию и мириться с тем, что либо данные в базе будут неактуальными, либо всё будет тормозить.

ОП задаёт вопрос, который показывает, что уровень его еще не топчик.

Хорошая экосистема серверов обычно требует того, чтобы сисадмин или девопс регулярно следили за новостями ДЦ и своевременно работали с возникающими проблемами.

Админы в самых разных ДЦ имеют неприятную особенность спокойно относиться к перебоям в работе локальных сетей. Перезагрузить свитч (или что там у них) - легко и в любое время. Аплинк - это "святое", а локалка время от времени преподносит неожиданности.

Если ОП реализует схему с пика, а потом у него отвалится мастер DB, возможны интересные последствия. В зависимости от того что там установлено и как настроено, приложение может нагадить в реплику, после поднятия первого мастера, мастер-мастер не осилит восстановление консистентности и всё может так хитро завернуться, что дорогой ОПу сервер ляжет не на полчаса, а, при неплохих объемах данных в DB, на целый день.

Уж лучше бы ему без всяких балансеров, один монолит на одном хорошем сервере вместе с DB, и по желанию, реплику DB рядом на сервере послабее и также на более дешевом сервере временную копию приложения, которая в случает падения основного сервера будет в аварийном режиме работать с репликой. Да и те не пригодятся скорее всего.

Вобщем, если хочется надёжности, нужно учитывать нестабильность локальных сетей в ДЦ.

havenrock :

С такими ценами выгоднее напрямую продавать. 

Легко недооценить насколько сильный корпоративный монопольный игрок может сожрать рынок.

Если покупатели рекламы теперь смогут покупать показы через Яндекс  у других владельцев площадок по условному 1 рублю, то зачем им возвращаться к вам и покупать за 10 условных рублей?

Пока лавина покупателей рекламы еще не вся перетекла в панель управления от Яндекса. Но понемногу текут, пробуют интерфейс, нарабатывают кейсы. А вы им в этом активно помогаете.

Как только рекламодатели привыкнут к интерфейсу, вернуть их в прямой закуп будет сложно.

Верный выбор в пользу свободы и доходов - никогда не продавать рекламу в TG через Яндекс.

Обычно сайты бывают недоступны не по причине отключений в качественном датацентре.

Если у ваших серверов по 2 блока питания, диски с приложением в зеркальном рейде, в коде нет критических ошибок и девопс не ошибся в деплое, то основная причина падений - это DDOS.

Я как-то заморачивался с резервными каналами, по две сетевые карты на разные аплинки в каждом сервере. Ни разу не пригодилось. И не слышал, чтобы кому-то пригодилось.

Зато от DDOS-а все постоянно лежат.
Разнесете точки отказа - станет сложнее их защищать.
Поэтому ассеты иногда целесообразно раздавать с помощью геоднс, а приложение лучше держать в одном ДЦ.

В остальном выше верно написано. Разве что я не за AWS, пусть девопс делает руками на железе (и документирует). На AWS при хорошей посещаемости выходит дороговато. Да и вендор лок до добра не доводит. Если поменяются тарифы/условия/санкции/блокировки и придется срочно переезжать, то намного легче сделать это с уже настроенным на своё железо деплоем.

Гук #:
Ребятки, так везде и на видеохостингах и на сайтах, рунет верными шагами идет в мезозой

Такой тренд наблюдается во всём мире.

Вы верно сравнили происходящее с глобальной сменой эпох.

Происходит чудовищное по масштабам уничтожение наследия миллиардов людей, оставленного в интернете "прошлого".

Десятки миллионов из тех людей были объективно талантливы и создали творения, не уступающие в культурной важности разнообразным более известным Монам Лизам.

Подобно глобальному вымиранию видов, сейчас по всему миру исчезают миллионы авторских сайтов.

А творения молодежи сразу после создания смываются в сливы бесконечных лент соцсетей и мессенджеров, часто не существуя дольше нескольких дней.

В мире происходит не только и не столько экономический кризис.

Кризис культурный для меня в сотни раз страшнее. 

В исторических произведениях люди сражались и умирали за библиотеки. Сейчас они обезболены экранами своих устройств. Жизнь без мыслей, без боли, без будущего и без настоящего, не подмененного, прошлого длиннее нескольких дней. Эта антиутопия уже наступила. Разве до денег сейчас?

P.S. Задонатьте интернетархиву, ребята. Это один из немногих осколков наследия, что у нас есть.

Всего: 259