Глобальное падение OVH в Европе

1 2345 6
Андрей
На сайте с 30.09.2009
Offline
491
#21

hosting_manager, для вас это как урок, а кто-то другой может из копеек по доступности семью кормит…

---------- Добавлено 09.11.2017 в 20:30 ----------

Прежде всего для пострадавших. Всегда нужно иметь аварийный план восстановления, и кто знает, может этот небольшой инцидент, убережет их от потери данных в будущем. Как это случилось, когда сгорел hosting.ua. Вот тогда людей было жаль, ибо некоторые потеряли проекты, средства заработка и т.п. (так как делали некоторые бэкапы в том же ДЦ и даже представить не могли, что резервные копии могут сгореть), также, как и после ситуации с крупным российским хостером в МСК, когда серверы просто перестали работать.

Поддерживаю +1

EuroHoster.org ( https://eurohoster.org/ru) - территория быстрых серверов. Выделенные серверы, VPS, SSL, домены и VPN.
hosting_manager
На сайте с 26.03.2010
Offline
294
#22
WapGraf:
hosting_manager, для вас это как урок, а кто-то другой может из копеек по доступности семью кормит…

В этом случае печально. Но ситуация может помочь человеку в будущем не потерять гораздо больше. Я видел проекты, которые полностью убрались, потому, как не было бэкапов. Вот это была трагедия. Потерять проект, приносящие стабильные несколько десятков тысяч долларов.... Когда ты им занимался много лет. Это настоящая трагедия. Также, как банкротство для крупного бизнеса. Люди после реально в депрессии, хотя, конечно, зависит от человека. Некоторым пофиг и они все делают заново. Главное жизнь и здоровье. Остальное малосущественно.

ua-hosting.company: серверы в NL/US со скидкой 30% нашим читателям: E5-2650v4/10GB DDR4/240GB SSD/1 Gbps - от $20 ()
anchous
На сайте с 12.10.2010
Offline
138
#23
hosting_manager:
когда сгорел hosting.ua

достойное сравнение

Купить быстрые анонимные прокси в России, Европе и США (http://proxy4seo.net/)
LF
На сайте с 13.08.2015
Offline
65
#24
hosting_manager:

Сеть в дата-центре полностью не отказывала никогда. Даже в сегменте Volume, не говоря уже о Premium.

Вы что-то путаете, не падал. Скорее всего падал сегмент, где находились Ваши серверы.

Наши подсети это не зацепило, был даунтайм только у части абонентов. Менее 10 серверов оказалось в том сегменте у нас, который имел проблемы.

У вас очень короткая память, Сергей. Скорее всего, вы просто специально проявляете свои уникальные маркетинговые скилы, чтобы на чужой проблеме попиарить свой реселлерский бизнес.

В EvoSwitch (площадка AMS-01), так же как и в лизвебовских стойках в Schuberg Philis (AMS-11) полностью отсутствовала связь с Интернетом 15 марта 2017 года с 5:28 CET по 7:43 CET (2 часа 15 минут)

Вот одно из сообщений в их NOC по этому поводу:

http://leasewebnoc.com/en/networkstatus/nl-ams-01-connectivity-issues-in-part-of-our-network-4

Во время инцидента отсутствовала связь полностью как в "Premium network", так и в "Volume network" во всех сегментах дц Evoswitch. Полностью отсутствовала связь с Интернетом во всем датацентре.

Не работал ни leaseweb.com, ни личный кабинет, ни даже mirror.nl.leaseweb.net.

Инцидент произошел после апдейта ПО на одном из пограничных маршрутизаторов, из-за чего упал весь кластер пограничных маршрутизаторов. 2 часа сетевикам потребовалось на откат прошивки и восстановления связи внутри дата-центра.

LeaseWeb после этого инцидента присылал "конфиденциальный" RFO документ (вам наверняка тоже) , там все хорошо расписано и причины и развитие событий по минутам.

Поэтому ваше сообщение о незначительности аварии - "Менее 10 серверов оказалось в том сегменте у нас" - это вранье.

И делать маркетинг на проблемах от которых никто не застрахован крайне глупо.

kxk
На сайте с 30.01.2005
Offline
970
kxk
#25

lsw_fan, Тот крайне редкий случай когда я Вас полностью поддерживаю

Ваш DEVOPS
hosting_manager
На сайте с 26.03.2010
Offline
294
#26
lsw_fan:

В EvoSwitch (площадка AMS-01), так же как и в лизвебовских стойках в Schuberg Philis (AMS-11) полностью отсутствовала связь с Интернетом 15 марта 2017 года с 5:28 CET по 7:43 CET (2 часа 15 минут)
Вот одно из сообщений в их NOC по этому поводу:
http://leasewebnoc.com/en/networkstatus/nl-ams-01-connectivity-issues-in-part-of-our-network-4

Во время инцидента отсутствовала связь полностью как в "Premium network", так и в "Volume network" во всех сегментах дц Evoswitch. Полностью отсутствовала связь с Интернетом во всем датацентре.
Не работал ни leaseweb.com, ни личный кабинет, ни даже mirror.nl.leaseweb.net.

Инцидент произошел после апдейта ПО на одном из пограничных маршрутизаторов, из-за чего упал весь кластер пограничных маршрутизаторов. 2 часа сетевикам потребовалось на откат прошивки и восстановления связи внутри дата-центра.

LeaseWeb после этого инцидента присылал "конфиденциальный" RFO документ (вам наверняка тоже) , там все хорошо расписано и причины и развитие событий по минутам.

Поэтому ваше сообщение о незначительности аварии - "Менее 10 серверов оказалось в том сегменте у нас" - это вранье.
И делать маркетинг на проблемах от которых никто не застрахован крайне глупо.

Нет, наше сообщение не вранье, а врун lsw_fan Вы, пытающийся выдать желаемое за действительное. По Вашей же ссылке указано:

http://leasewebnoc.com/en/networkstatus/nl-ams-01-connectivity-issues-in-part-of-our-network-4

Connectivity issues in part of our network

Вы вообще понимаете разницу между "частью" сетей или сетями полностью?

"весь кластер пограничных маршрутизаторов" - входящих в состав ОДНОГО ядра, в ЦОДе 2 независимых ядра, которые одновременно упасть не могут.

Наши абоненты могут подтвердить, что проблем в этот день у них не было. Этому же могут быть и подтверждением отсуствие шторма вопросов у нас в теме. Если бы такое было в действительности, как Вы описываете и у нас упали тысячи клиентских серверов, наверное, в нашем топике была бы информация об этом. Также, как и отчёт о случившемся.

Видимо, мы размещаемся в сегменте с более надежной сетью. Ибо наши сервисы каких-либо значительных проблем не испытывали в этот день.

---------- Добавлено 10.11.2017 в 12:27 ----------

kxk:
lsw_fan, Тот крайне редкий случай когда я Вас полностью поддерживаю

Я не удивлюсь, если lsw_fan - засланное лицо из amhost, уж больно просматривается между их активностью связь :) Amhost тогда действительно лежал, не повезло им.

Но о том, что падал, к слову, premium-сегмент, я не могу найти упоминания, так как в случае выхода из строя только одного ядра - такое невозможно.

Бред lsw_fan в том, что он надеется увидеть поддержку неспециалистов. По его же ссылке видно, что проблема была вызвана обновлением ПО на корневом маршрутизаторе. Но как он сам прекрасно знает, трафик к премиум-сети маршрутизируется двумя независимыми маршрутизаторами. Потому, даже в случае падения одного из, проблем у таких серверов не будет.

Более того, некоторый трафик, маршрутизируется не только маршрутизаторами LeaseWeb, а EvoSwitch - это не только сеть LeaseWeb, а еще и point of presense точки обмена, где можно получить включение от магистрала напрямую и маршрутизироваться по своим правилам.

LF
На сайте с 13.08.2015
Offline
65
#27
hosting_manager:
Вы вообще понимаете разницу между "частью" сетей или сетями полностью?

Да понимаем, когда часть сети падает в NOC пишут список затронутых сетей, в данном случае лежал ВЕСЬ LeaseWeb в датацентре Evoswitch. Поэтому и списка сетей нет.

hosting_manager:

"весь кластер пограничных маршрутизаторов" - входящих в состав ОДНОГО ядра, в ЦОДе 2 независимых ядра, которые одновременно упасть не могут.

Почитай RFO документ, который они присылали. Там все расписано, как и что у них упало, в результате каких действий.

И ты видимо не в курсе как сейчас устроена сеть у LeaseWeb и в чем разница между Premium и Volume сетями. Когда LeaseWeb перешел на так называемую new generation network (NGN), то ядро стало единым. Надежность обеспечивается для всей сети за счет fail-over в кластере. Разница между premium и volume осталась лишь в биллинге и маркетинговых документах. Да, есть всякие плюшки у Premium типа более "надежный" SLA и возможность по запросу измеить маршрут BGP. Но по факту разницы никакой нет.

hosting_manager:

Но о том, что падал, к слову, premium-сегмент, я не могу найти упоминания, так как в случае выхода из строя только одного ядра - такое невозможно.

Нет больше премиума-сегмента. Он только на бумаге остался. К тому же, у тебя 100 ТБ сервера , а они только Volume. С их ценником на Premium 100ТБ стоило бы как весь твой сервер.

hosting_manager:

Наши абоненты могут подтвердить, что проблем в этот день у них не было. Этому же могут быть и подтверждением отсуствие шторма вопросов у нас в теме. Если бы такое было в действительности, как Вы описываете и у нас упали тысячи клиентских серверов, наверное, в нашем топике была бы информация об этом. Также, как и отчёт о случившемся.

В вашей теме "шторм" вопросов бывает только если вы халяву какую-то раздаете своим клиентам или в очередной раз по своей глупости нафантазирвали или устроили срачь на ровном месте.

И к сожалению, LeaseWeb уже давно даже не в 20-ке хостингов РФ, поэтому в этом ничего странного нет.

Сравните октябрь 2014

https://statonline.ru/metrics/hosting?tld=ru&month=2014-10

И октябрь 2017

https://statonline.ru/metrics/hosting?tld=ru&month=2017-10

LeaseWeb пропал. OVH и DO появились.

hosting_manager:

Видимо, мы размещаемся в сегменте с более надежной сетью. Ибо наши сервисы каких-либо значительных проблем не испытывали в этот день.

Ваши админы могли просто проспать, не заметили или не сообщили владельцу компании. А те 10 серверов, о которых идет речь - это лишь те кто создал тикет. Судя по прошлым поступкам ваших админов - это вполне реальный вариант. Наплели тебе просто то, что ты готов был услышть, а проверять ты не стал или не смог.

hosting_manager:

Я не удивлюсь, если lsw_fan - засланное лицо из amhost, уж больно просматривается между их активностью связь :) Amhost тогда действительно лежал, не повезло им.

hosting_manager, продолжаешь фантазировать. Хотя.... Зашел на сайт амхост, у них еще и OVH продается. Блин теперь точно все сходится!

hosting_manager
На сайте с 26.03.2010
Offline
294
#28

lsw_fan, я не буду с Вами спорить, так как это не имеет смысла. К системе мониторинга у администраторов подключено множество серверов, в том числе наших нод с виртуалками несколько сот наберётся, помимо клиентских. У нас не было глобального падения серверов. Порядка 10 серверов, не больше, потеряли сеть.

Извините, но обвинять администраторов, которые вполне хорошо делают свою работу, некрасиво. Большое количество абонентов очень довольны уровнем тех. отдела и той оперативностью ответов, которую они обеспечивают.

Документ с пояснениями нам слали лишь по США, когда реально наш клиент пострадал.

Тогда же пострадавших у нас почти не было и какие-либо документы нам не присылались. А может присылались, но мы их не искали. Так как жалобы массовые отсутствовали, а обратившимся клиентам пояснения от тех. отдела были предоставлены в тикете.

LF
На сайте с 13.08.2015
Offline
65
#29
hosting_manager:
lsw_fan, я не буду с Вами спорить, так как это не имеет смысла. К системе мониторинга у администраторов подключено множество серверов, в том числе наших нод с виртуалками несколько сот наберётся, помимо клиентских. У нас не было глобального падения серверов. Порядка 10 серверов, не больше, потеряли сеть.

Если мониторинг у вас на сервере в Evoswitch, то ваши админы от мониторинга как раз ничего и не получили, т.к внутри ничего не падало и между собой сервера были доступны. Ну а это уже вопрос к професианализму админов и организации мониторинга.

kxk
На сайте с 30.01.2005
Offline
970
kxk
#30

hosting_manager, К стати вот о ком о ком, а о Амхост я ничего плохо сказать немогу, Тигр или кто там был админом очень умело жонглировал дедиками для того времени это был прямо высший пилотаж, но времена идут я стал умнее и жаднее и беру сервера напрямую:)

И нет я не сотрудник OVH, Амхост и Мирхостинга и других, я основатель и идейный вдохновитель поистине крутого сервиса ddos защиты какой в дополнительной рекламе ненуждаеться.

---------- Добавлено 10.11.2017 в 16:51 ----------

lsw_fan, К стати у Мирхостинга такое недавно было когда 1 серверок квакнулся возможно только во внешку потому они и неузнали о 502 ошибке пока мне не приспичило в тикетку зайти.

1 2345 6

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий