hvosting

Рейтинг
133
Регистрация
12.05.2007
-=Илья=-:
Коллега, хвостинг сделал допущение, что периоды недоступности сайта распределены по временному отрезку равномерно. Это разумеется неверно, но когда мы берём бесконечно большой отрезок времени, это допущение работает. И когда мы берём год - оно хуже, но работает. А когда мы берём минуту, то оно работает из рук вон плохо - но это совсем не значит, что расчёт сделан плохо - он сделан при-бли-зи-тель-но.

Я,#$@!, НЕ ДЕЛАЛ ДОПУЩЕНИЯ!!!!

О чем уже 2 раза (!!!) писал.

ТС изначально все правильно посчитал. АКАДЕМИЧНО!

А я приводил НАГЛЯДНЫЕ ПРИМЕРЫ, более того не верные, приблизительные "народные" или "студенческие" методы расчета,

просто чтобы наглядно продемонстировать полную бредовость "альтернативно одаренного" метода, дающего отличие в 1000000 раз от визуального приблизительного ответа.

cvss:
hvosting в своем стремлении продать вам консультацию может поддерживать вас в этом заблуждении либо из корыстного интереса, либо из-за плохого владения вопросом.

1. Я тебе задал конкретный вопрос: Посчитай по своей супер методе

вероятность того, что клиент заметит обвал своего сайта

а) плотно работая со своим сайтом, и делая к нему 100 обращений в час,

б) uptime 50% (30 минут простоя в течение часа)

в) скорость открытия страницы 0,2 сек (хотя _на самом деле_ для расчетов это не важно)

Продемонстрируй свой шикарный ответ 0,003% или 0,3% в зависимости от того

захочется тебе учесть 100 попыток или нет, и если до тебя не дойдет

бредовость обоих цифирей (еще раз повторяю - клиент не вылезая ходит по своему сайту

и с вероятностью 99,7% не замечает 30 минутного простоя)

то поможет тебе только стена.

cvss:

Если у вас репликация данных между бэкендами идет по DRBD

Молодец!! Других способов репликации БД ты конечно знаешь кучу, и долго выбирал самый "подходящий" для примера.

cvss:

С DNS вряд ли бы работало - если браузер снова запросит адрес, он его получит из кэша DNS-сервера.

Писатель, в теме обсуждался TTL кеша. Не читал?

cvss:

если DNS вернул для имени несколько IP-адресов, при ошибки подключения к первому адресу пробуют поочередно подключиться ко всем остальным.
....
На базе него строится простой, но не очень хороший вариант - failover на round robin DNS.

Отлично. То что я ранее (бесплатнно?!) посоветовал перед фронт-эндами (вероятно протекающими и имеющими не тривиальную логику) поставить пачку тупых надежных балансеров (haproxy или подобные по простоте) тоже не прочитал?

Облака это мега сложный черный ящик, у которого есть какие то заявленные характеристики,

но сколько нибудь верить этим характеристикам с точки зрения надежности - наверное не стоит.

По делу - ваши падения фронт-эндов проще всего разрулить применением N балансеров перед, простых как апельсин. И сломать их может только канальный DDoS.

И уже эти балансеры могут очень оперативно принимать решение.

Применять облака для борьбы с DDoS это как правило ну очень дорого.

klamas:

ну вот, а почему с проверками у вас получается что вероятность попадания следующих проверок зависит от предыдущих?

Во первых я так не "считаю", а только привожу наглядные примеры, для простоты понимания.

Но даже с ними все очень туго.

Во вторых - я и не знал что робот гугля (с которого начался срач) на сайт заходит 52 раза в первую неделю, а потом год на сайте не бывает.

И хосттрекер тоже проверки делает совсем не равномерно.

В общем вам надо откуда то плясать - вы и "пляшите":

посчитайте вероятность не заметить ошибку, если 50% аптайм, 100 проверок за сутки, скорость открытия страницы - 0,2 сек.

klamas:
а ничего что эти 18 секунд могут располагаться в этом часе как угодно, хоть подряд, хоть частями? и так же с какой радости раз в 7 секунд? просто 52 раза, и эти разы могу размещаться как удогно. 18 секунд в начале часа, а 52 раза в конце, не может быть? так вот вероятность как раз и должна показать ШАНС ИХ СОВПАДЕНИЯ.

Короче cvss прав

не 52 а 520 проверок. _в час_ . при аптайме 99.5% Хоть бы условие прочитали, о котором речь.... иксперты.

Или просто троли ? :)

---------- Добавлено 15.06.2012 в 16:34 ----------

klamas:
Это хлеб по-английски...

Задам наводящий вопрос-загадку:
Монетку подбросили 100 раз и все сто раз выпал орел.
Какова вероятность (по вашему методу расчета) что на 101 раз выпадет орел?

Если у монетки не 2 орла - то 49,999%.

оставим 0,002% на то, что монетка может упасть на ребро.

cvss:
Обратитесь 520 раз за час - по вашей методике подсчета вероятность отказа будет 92%. Повторяйте эту серию обращений каждый час в течение года, у вас все эти разы вероятность отказа должна быть 92%. Все еще считаете, что у вас нет ошибки?

Да, если каждый час будет 18 секунд простоя, то каждый час я увижу хоть одну ошибку, с вероятностью 92%. Или не увижу ни одной ошибки, с вероятностью 8%.

cvss:

Простая иллюстрация вашей ошибки - обратитесь к сайту 52 раза не за год, а за минуту или за час. Вы уверены, что с вероятностью 26% получите отказ? Обратитесь 520 раз за час - по вашей методике подсчета вероятность отказа будет 92%. Повторяйте эту серию обращений каждый час в течение года, у вас все эти разы вероятность отказа должна быть 92%. Все еще считаете, что у вас нет ошибки?

Если за один час имеем 99,5% аптайма, то имеем простоя в этот час цельных 18 секунд.

и при этом каждые 7 секунд проверяем состояние сайта.

Вот и подумай, с какой вероятностью эти 18 секунд простоя пролетят мимо проверок, которые происходят каждые 7 секунд...

Садись, два. На пересдачу.

---------- Добавлено 15.06.2012 в 16:15 ----------

netwind:
Однако, IE посылает, ЕСЛИ произошла ошибка подключения.
Другие браузеры по-разному, в целом достаточно практично. Где-то было исследование.

Честно - не знал. Это хорошо характеризует разработчиков броузеров :).

Пруфлинк не найдете, с исследованиями?

freedz:

yesRuslik, по идеи чем больше фронтендов тем выше отказоустойчивость(есть 3 "слоя": dns хостинг, фронтенд, основные сервера; и по идеи вероятность отказа всей системы - произведение вероятностей отказа всех "слоёв", дублирование фронтенда улучшает отказоустойчивость "слоя" фронтендов и ведёт к увеличению общей отказоустойчивости).

Опять же правильно "почти".

Вероятность успешной работы системы = произведение вероятностей успешной работы всех систем.

Вероятность сбоя сложной системы = 1 - вероятность успешной работы.

====

Если сбой уже наступил - используется более дискретный подход:

Ждем поднятия этого сервиса (если не критическая ошибка бекенда)?

Переключаемся на уже поднятый запасной сервис, с отставанием по данным (синхронизация по времени)?

Поднимаемся из резервной копии на еще не запущенный запасной сервис ?

ПРИЧЕМ!!

потеря информации за дельта T может быть дороже лишних 30 минут простоя.

Потому банки категорически предпочитают "полежать" лишних 30 минут, чем раскатывать бакапы. А хостеры наоборот.

freedz:

Пока в голове созрел вот такой вот план:
1) DNS переведём на сервис, который позволяет делать "DNS+failover"(если можно получить скорость отключения нерабочего фронтенда порядка минуты).
2) В качестве параллельных фронтендов будут два VPS
3) Фронтенды будут подтягивать сайты с двух серверов(один основной и один дублирующий).

Хороший план. Коварный.

1. Получить скорость отключения порядка минуты можно....

Но на практике будет 2-4 минуты (ибо "бюрократия" :) ).

И еще момент - при каждом обращении к странице броузер не посылает новые запросы в DNS.

Если клиент УЖЕ находился на сайте в момент аварии - переключение DNS ему поможет не слишком эффективно.

При этом за минуту можно успеть поднять фронтенд.

2. Надежность VPS по определению ниже чем надежность оборудования, на котором он базируется.

Конечно его в одном месте можно быстро погасить, в другом поднять, но факт "сбоя" уже

случился и система завертелась.

А синхронная перезагрузка 2-х VPS-ов? Как себя должна вести система?

3. Синхронизация (причем, простите за тавтологию - синхронная) данных между основным и дублирующим сервером, и взаимная смена ролей - это основной гемор в вашем проекте.

З.Ы. У меня второе высшее как раз защита информации. Включает в себя анализ рисков и т.д.

ЕСЛИ ваш проект действительно денежный - могу вам на платной основе помочь действительно корректно посчитать ваши риски и прикинуть оптимальный аптайм с средства борьбы за него.

cvss:
Все еще считаете, что у вас нет ошибки?

Дорогой, сдай сначала сессию, а потом компостируй мозг своими гениальными познаниями теорвера людям с двумя техническими высшими.

cvss:

Вы упустили, что падение сайта и обращение к сайту - независимые случайные величины. Их совместная вероятность - произведение.

Простая иллюстрация вашей ошибки - обратитесь к сайту 52 раза не за год, а за минуту. Вы уверены, что с вероятностью 26% получите отказ?

Может быть события, а не величины? :)

Дано - вероятность успешно открыть сайт = 99,5%

требуется посчитать - с какой вероятностью удасться открыть сайт успешно 52 раза подряд.

Вероятность сегодня и через неделю ну точно одинаковые, и события эти не связанные.

То что мои подсчеты не верные (но с приемлемой погрешностью) я в курсе.

Всего: 1125