У Колоката, сейчас нет свободных мест (Думаю, Александр на меня не обидится за эту инфу, все равно, так по телефону отвечают).
Осталось только зарезервированное место под старых клиентов.
Но ЦОД, хороший, сделан добротно. Был у них недавно в гостях.
Отвечу сразу на оба поста.
История развития компании до 2011 года описана здесь.
Работаем, уже 15 лет. Об этом сказано на третьем слайде на главной странице.
Собственно хостингом, мы начали заниматься еще в 2000 году. Тогда еще под собственным именем marosnet.ru.
Домен ihor.ru в месте с клиентской базой и, на тот момент, единственным сервером, был приобретен нами в 2005 году. Потом, был плавно влит в хостинг МАРОСНЕТ, некоторое время домен ihor.ru был альясом к домену marosnet.ru.
В конце 2010 года, мы сделали перезапуск проекта Айхор, уже в его текущей реинкарнации. Сначала, запустили как новый, пустой проект на отдельном сервере. В течение 2011 года, перевели всех хостинговых клиентов под проект Айхор.
Из ключевых дат в развитии, можно выделить, наверное, две:
27 апреля 2000 года, когда заработала первая выделенка и поставили первые сервера.
20 декабря 2010 года, когда стартанул проект Айхор в своей текущей ипостаси.
Что касается того, как мы отмечаем эти даты... В трудах и заботах ))).
На самом деле, выходной то, не всегда получается себе устроить, лично мне тут, бухгалтерия насчитала 200 с лишним дней недогулянного официального отпуска.
Тут админы, все предлагают откупорить мой бар в офисе, который последнее время сильно пополнился благодаря подаркам от поставщиков оборудования, которых мы постоянно осчасливливаем закупками. Сначала предлагали напиться на 1000 VDS, потом на 2000, потом на 3000...
Пока, так и не сложилось, все в делах постоянно. Как не спросишь их, будем пить или нет, все время находят отговорку ))), то мол за рулем, то дел еще много ))).
Пока, как то так, дальше видно будет.
Возможно, Вам просто не повезло. Реальных проблем, которые повлияли на всех, было всего три за все лето:
1. На М9, из-за несогласованности при проведении работ на кроссе (1 час).
2. На ул. Радио, когда экскаватором порвали оптику (12 часов).
3. В новом ЦОДе, когда админы залили кривой конфиг на центральный коммутатор (40 мин).
По всем трем авариям приняты меры по предотвращению повторения их в будущем
1. Резервная оптика проведена на М9 через другой кросс.
2. Резервная оптика до М9 альтернативным маршрутом.
3. Админам сделано внушение.---------- Добавлено 10.09.2015 в 21:26 ----------
Проблемы бывают не только у нас.
В данном случае проблема была у Филанко (ClaudIX), на их агрегирующем коммутаторе развалился LACP. Из-за этого, порвалась сессия между их пограничным маршрутизатором и нашим.
На прошлой неделе их тоже колбасило, пришлось даже на несколько дней погасить линк с ними, пока они не решили проблему. Вчера вот опять, видимо звезды криво стоят над телекоммуникациями ).
В таких случаях, работает автоматика протокола BGP, который перераспределяет трафик на других операторов (коих у нас еще 6). К сожалению, перестройка маршрутов происходит не мгновенно. Как правило, в течение 5 минут (об этом, говорят Ваши посты, что все поднялось).---------- Добавлено 10.09.2015 в 21:32 ----------
Тут только, могу предположить, что работа Ваших сервисов была завязана на работу недоступного DNS-а, сейчас, Вы поменяли его на гугловский. По идее, проблем быть не должно, если вдруг повторится, пишите, будем разбираться.---------- Добавлено 10.09.2015 в 21:42 ----------
Насколько я вижу, что Вам помогли в течение 20 минут, после того, как Вы предоставили root-пароль от своего сервера.---------- Добавлено 10.09.2015 в 21:47 ----------
Вы тоже нас поймите, мы же понятия не имеем, как там у Вас все работает внутри VDS. Поверхностная диагностика показала, что недостаточно оперативной памяти. Причин, по которым это происходит, может быть первеликое множество. Вы можете заказать платное администрирование, тогда специалисты займутся аудитом работы Вашего сервера и оптимизацией его работы. Собственно говоря, поиск причины утечки памяти, может занять гораздо больше времени, чем устранение этой причины, по этому, данная услуга уже является платной.---------- Добавлено 10.09.2015 в 21:49 ----------
Вашим тикетом занимался один из старших админов, у него свое видение на стоимость своего рабочего времени, я ему скажу, чтобы он в будущем передавал подобные вопросы младшему составу ).---------- Добавлено 10.09.2015 в 21:51 ----------
Проблема была не в восстановлении доступа, а в прилегшем ISPmanager, на VDS-ке.
В итоге, pingons1983, с этой проблемой справился сам.---------- Добавлено 10.09.2015 в 21:57 ----------
Отвечать по всем постам, это моя привилегия ). Как видите, отвечаю ).
Но если есть конкретная жалоба, то лучше последовать совету Вадима, Потому как, ветка у нас активная, и иногда, могу пропустить какой либо пост. А в тикетах, вопрос будет обязательно решен.---------- Добавлено 10.09.2015 в 22:01 ----------
Если проблема осталась, то напишите об этом в тикет, будем разбираться. В настоящий момент, я вижу, что тикет закрыт Вами. Соответственно, с нашей стороны вопрос считается решенным.
Написанная мной информация, написана для тех, кому это интересны технические подробности. И такие люди здесь есть. Для тех кто в этом разбирается, даст понимание, как избежать подобной проблемы на своих VDS-ах. Если посчитать количество постов в момент аварии, то можно понять, что она затронула весьма не большое количество пользователей учитывая тот факт, что у нас уже более 3000 VDS. Решение данной проблемы, мы описывали несколько страниц назад. После того, как мигрируем наш сайт и DNS-сервер на новую площадку, проблема исчезнет. Сейчас, готовится внутренняя инфраструктура в новом ДЦ под это.
Да, конечно сообщим, сейчас можно получить сервер по мере наличия свободных ресурсов, как правило, в течение 1-2 дней.---------- Добавлено 08.09.2015 в 17:26 ----------
То есть в момент сбоя нашего фаервола, пинг от Вас до VDS, проходил, однако сайт не работал, я правильно понимаю?
delfi, Посмотрел внимательней на Ваш скришот, уже все нашел.
Каких либо проблем с нодой не было в этот период, время пропадания из мониторинга, совпадает со временем падения нашего фаервола. Осталось выяснить зависимость.
Основной вопрос, где у Вас работает заббикс? Снаружи, или на Вашей VDS?---------- Добавлено 07.09.2015 в 22:31 ----------
После добавления свободных серверов. Пока, практически не осталось свободных мест, по этому приоритет в сторону оплаченных заказов.---------- Добавлено 07.09.2015 в 22:35 ----------
Ответил, прошу прощения за задержку, закрутился маленько.
Еще раз поясню, из-за чего это происходит.
Есть у нас такой замечательный фаервол, за которым сидят все наши собственные ресурсы (такие как сайт, ns1, один из DNS-резолверов и т.д.)
В вот, в последнее время, повадился он зависать, точнее даже не зависать, у него просто ложится сервис маршрутизации (quagga ospf), причем, причину падения, админы до сих пор не выяснили, он просто перестает маршрутизировать и все. При этом, поскольку за ним скрыты все наши закрома, его даже не перезагрузишь по управляемой розетке, т.к. доступа извне, к нему нету. Стоит он в старом ЦОДе, из которого, почти все вывезли и люди, ночью тут не сидят. По этому, если если это происходит в выходной ночью, то нужно время, чтобы добраться до старого ЦОДа, и перегрузить фаервол с консоли.
По идее, работа нашей внутренней кухни, полностью отделена от клиентского сегмента и проблемы в одном сегменте, не должны влиять на проблемы в другом.
Единственное, чем пересекаются в данном случае эти сегменты, это наличием за фаерволом ns1.marosnet.ru и первого резолвера 94.142.136.100, в случае отказа фаервола, данные ресурсы перестают быть доступны. При этом, весь клиентский сегмент работает в штатном режиме. Проблемы возникают только у того, кто использует наши резолверы для каких либо задач (например, как twiprogon для cURL). Когда эта проблема возникла в первый раз, мы посоветовали (еще несколько страниц назад), сменить DNS-сервера на гуловские или яндексовые (не умеете сами, напишите в саппорт, поможем). В принципе, у нас есть вторичные DNS-ы, которые расположены на отдельной площадке. И по идее, должно идти обращение к ним в случае недоступности, но в большинстве операционных систем, почему-то настроены слишком большие тайминги и большинство приложений просто не успевают дождаться ответа от подсистемы резолвинга, и вылетают по таймауту, до запросов ко вторичному DNS, дело даже не доходит (это все можно, настроить руками в недрах ОСей).
Я прекрасно понимаю, что это не дело, да и мне (как самому близко живущему) совсем не улыбатется в 3 часа ночи подрываться и ехать, чтобы перегрузить этот долбаный фаервол. По этому, поставил админам ультиматум. До конца недели избавится от этой железки, у нас и без нее забот хватает. Или меняют на новую (безглючную) или устраняют ее из цепи маршрутизации. Сам, вот, потратил сегодня несколько часов рабочего времени на изучение различных вариантов аппаратных фаерволов. ---------- Добавлено 07.09.2015 в 21:39 ----------
Собственно говоря, только что описал ситуацию выше. DNS, рабочий и не в нем проблема. В новые сборки, мы уже прописываем гугловские резолверы.---------- Добавлено 07.09.2015 в 21:46 ----------
На 26, вы имели в виду? Сообщите Код услуги, мне нужно понимать на каком сервере расположен Ваш VDS. Тогда смогу дать точный ответ, что это было. По времени, совпадает с падением нашего фаервола. Опишите, пожалуйста, как работает Ваша система мониторинга?
Опрашивает по IP-адресу или по доменному имени, если домен, то какой?
То, что работа Вашего Curl-a не будет зависеть от работы нашего DNS-а, а будет зависеть, исключительно от гугловского.---------- Добавлено 07.09.2015 в 19:59 ----------
Что тут не комильфошного? Многие хостеры по дефолту прописывают гугловский DNS. Например, тот же DO.
Поменяйте DNS!
Биллинг сейчас заработает.---------- Добавлено 04.09.2015 в 01:24 ----------Биллинг работает.---------- Добавлено 04.09.2015 в 01:27 ----------
Ваш сервер доступен.---------- Добавлено 04.09.2015 в 01:29 ----------Восстановили работу старого ЦОДа, по резервному линку.---------- Добавлено 04.09.2015 в 01:33 ----------
Это называется синдром бурного роста. Надеюсь, мы скоро его преодолеем.
Во всяком случае, вопрос с резервированием оптики в новом ДЦ решили, правда, пока по временной схеме, но сегодня это спасло от даунтайма новый ЦОД.