Ivan Lungov

Ivan Lungov
Рейтинг
222
Регистрация
24.04.2013
http://www.ihor.ru/about.html

tulkin, Да, не удачная модель ИБП была, при выходе на полную нагрузку, стали глючить. Заменили на APC, проблему решило.

tulkin, спасибо. Можете сказать логин, что бы я посмотрел какие именно проблемы были со стабильностью. Апрель, вроде как, выдался вполне спокойный. Это вот в марте было много траблов.

А вообще, над стабильностью работаем самым непосредственным образом. По этому и на серчах, иногда, отвечаю с задержками. Частые разъезды и переговоры. Готовим серьезный левелап для нашего проекта.

tulkin, Прошу прощения, недопонял сразу %).

Почему съехали? Над чем работать?

Можно, я сегодня не буду писать развернутые ответы? А то писать длинные тексты с телефона, достаточно утомительная работа. Да и цитаты толком не повставляешь. 4 мая буду на работе, напишу все подробно. Комменты все прочитал, к сведению принял. Админов, задачами нагружу.

WapGraf, вклинивайтесь, пожалуйста, я не против комментов коллег по цеху, особенно, таких дельных, а не примитивного бубнежа на тему оверселла без какой либо конкретики и профессиональных выкладок. Вы уж меня простите, srvgame, но Ваши комменты позволительны для пользователя, но уж ни как не для профессионального хостера.

---------- Добавлено 02.05.2015 в 23:48 ----------

tulkin, Вы напишите какой либо ориентир, чтобы я мог найти Ваш VDS. Логин, код сервера, номер тикета с проблемой. В принципе, это ко всем относится. Когда, парк состоит из более чем 120 серверов, а количество активных VDS более 2к, найти один конкретный, по описанию проблемы на серчах, дело не простое и требующее много времени. Даже, банальное листание графиков в Заббиксе может занять несколько часов. В идеале, указывайте еще время возникновения проблемы с указанием Вашего часового пояса.

Все серверы, работают независимо, и возникновение проблемы на одном из них, никак не отражается на работе других. Если бы проблема была глобальной, то нам бы уже тут все бы серчи порвали комментами.

Здравствуйте, Alex01d.

500 ошибка возникает где? При входе в биллинг? Напишите мне в личку логин и пароль, которые используете для входа в биллинг или на ящик саппорта.

srvgame:
По закону положено нормальные продукты продавать, а то чудо с лицензией что у Вас в подписи, продает оверсел, который потом лежит у людей каждые 10 минут.

Вы врите, но не завирайтесь на счет каждые 10 минут. И на счет оверсела тоже, кроме ядер ничего не оверселим, а по факту, их тоже не особо. Я Ваш хостинг не обсираю, проявляйте и Вы ко мне уважение. Из Ваших постов складывается мнение о Вас, и оно, прямо скажу, не айс. Если стремитесь заработать положительную репутацию в сообществе (и клиентов, соответственно), то меняйте стиль общения.

devilstar, посмотрел загрузку старой ноды, действительно есть периодическая сильная нагрузка на дисковую подсистему. Будем разбираться, что там так сильно грузит.

---------- Добавлено 28.04.2015 в 20:28 ----------

Ivan Lungov:
А что с прошлой нодой?

Написал выше ).

---------- Добавлено 28.04.2015 в 20:41 ----------

devilstar:
Кстати в договоре (или на сайте) ошибка. В договоре написано что 512мб оперативки стоят 100р. А на сайте - 1gb за 100р.

Спасибо за замечание. В прайсе не исправили. На сайте верная информация.

srvgame:
Ждите заполнения очередной ноды и снижение скорости
Это очевидно же.

Нода, на которую перенесли devilstar-а, уже заполнена, новых VDS-ов на ней не предвидится. Собственно говоря, этот VDS стал последним.

iiname:
Вам наверно нужно убрать линейку OpenVZ и KVM HDD. Тех. поддержки было бы удобнее, как одна виртуализация удобнее в плане настройки и поддержке, а SSD в плане скорости и ограничениях.

Скорее всего, закроем со временем. Но сделаем это естественным путем. По сложности поддержки, особых проблем нет. Как говорится, каши не просит. От HDD, скорее всего будем вообще отказываться. Поскольку это не выгодно и бесперспективно.

iiname:
Кстати как ведут себя SSD диски? Просто интересно узнать о них подробнее, есть ли разница по сравнению с дисками Intel, которые в 2 раза дороже.

Вполне нормально, скорость высокая. Износ (циклов записи) не высокий. Отказов, за полтора года ни одного. HDD, уже кучу поменяли.

iiname:
А когда вы планируйте запустить новый дата центр? Только побольше, и желательно с новым парком оборудования, чтобы гордо говорить, "почувствуй разницу", а она есть, правда в подсчетах невидна, только в тестах.

Работаем над этим ;).

iiname:
И ещё вопросик, вы чуть выше писали что разрабатывайте свой собственный биллинг, вам не нужна помощь в этом плане, даже можно в другом, панели управления хостингом или vds? Могу помочь.

Скажу главному разработчику. Он свяжется с Вами.

iiname:
Зы. На KVM есть увеличения ресурсов на лету и живая миграция.

Живой миграцией пользуемся каждый день. Увеличение ресурсов на лету отрабатываем для внедрения в свою панель.

lhoster:
Видимо что то с дисковым массивом случилось. Возможно просто закончилось свободное место на ноде под контейнеры, после последних выполненных бекапов.

Что значит закончилось место?

При виртуализации KVM, диск выделяется блоком, согласно тарифа и монтируется как LVM-том.

Не путайте с OpenVZ-виртуализацией, где, в принципе можно оверселить диск. Здесь, с нашей стороны, ресурсы были выделены в полном объеме. По этому, место могло закончится только внутри контейнера, но никак не снаружи его.

---------- Добавлено 27.04.2015 в 21:10 ----------

tlk:
Ситуация получилась весьма и весьма напряженная. Контейнер ночью работал штатно, без сбоев. Разработчики трудились, проблем не было. Все показатели были в нормах.

Уважаемый, tlk, я внимательно перечитал Вашу переписку с тех. поддержкой. В данном случае, мне даже не за что их упрекнуть. С нашей стороны, никаких сбоев не было, все работало в штатном режиме. Ребята из поддержки отвечали быстро и корректно.

В 08:09:17, от Вас поступил запрос. В 09:39:46, Руслан написал, что исправил проблему. В 10:02:35, Вы подтвердили, что все работает. Причем, судя по переписке, первый час из этих полутра часов ушел на попытку получить от Вас доступ к Вашему VDS. То есть, решение самой проблемы уложилось в 30 минут.

tlk:
Ребут с фсчеком не помог ввиду того, что /tmp вообще в принципе не мапился - ругался на его отсутствие как таковое. Я в этот момент был подключен по VNC и просто не успел сделать скрин. Успел только заскринить начальные маты убунты на неконсистентность ФС.

Как раз именно reboot+fsck и помог устранить проблему. Проблема образовалась внутри Вашей файловой системы, а не на мастер-ноде. То есть, по факту, это Ваша епархия, к которой мы доступа не имеем. Как вариант, файловая система могла быть повреждена Вашими разработчиками, но это лишь мои предположения. Можете у них поинтересоваться, какие действия они проводили на сервере до возникновения проблемы. Возможно, это прояснит ситуацию.

tlk:
Решилось спустя почти два часа от возникновения проблемы в тупую миграцией на другую ноду.
И после миграции всё заработало опять в штатном режиме.

Про время решения, я написал Выше. Ваш сервер никуда не мигрировали. Все что было сделано, это reboot+fsck. Тоже самое, Вы могли сделать самостоятельно, не обращаясь в тех. поддержку.

tlk:
Вот как это назвать? И кто виноват?
И как так получается, что ситуации происходят в самые неприятные моменты?

Я бы начал поиск виновного с разработчиков.

В среде профессиональных разработчиков есть следующее правило, никогда ничего не запускать в продакшн в пятницу и в понедельник. В первом случае, некому будет исправлять ошибки на выходных. Во втором случае, понедельник - день тяжелый. Лучше еще раз все проверить. Потом, никогда не производить разработку на продакшн-машине. Для этого, всегда должна быть тестовая среда.

Немного подытожу:

1. Телефон офисный, в основном для консультаций и решения орг-вопросов. Время работы с 10 до 18 часов, оно, официально указано на сайте: http://take.ms/qKpRL, также, указаны категории решаемых вопросов. Последнее время, часто отвечаем до 2-3 ночи. Поскольку часто засиживаемся на работе допоздна. Но рабочий день у сотрудников, которые приходят с утра, начинается в 10 часов. Тех. поддержку по телефону оказываем только по мере возможности и наличия свободных инженеров. В последствии, будем вводить тех. поддержку по телефону, но пока приоритет на тикет-систему. И как видно из переписки, нам удалось отладить ее работу на достаточно хорошем уровне.

2. /tmp, директория внутри Вашего сервера, к мастер-ноде, никакого отношения это не имеет. При использовании аппаратной виртуализации KVM, наличие или отсутствие свободного места на мастер ноде не может никак повлиять на работу VDS, поскольку дисковое пространство выделяется согласно тарифу при создании виртуальной машины. Если места нету то машина просто не создастся. Если есть, то все место резервируется сразу, таким же образом, как Вы разбиваете диск на своем компьютере и указываете какого объема будет тот или иной раздел и Вы не сможете создать логических дисков суммарным объемом больше, чем есть на физическом носителе.

3. При возникновении проблемы, лучше сразу, в первом же запросе, предоставить все необходимые данные для доступа к VDS. Как видно выше, это может сэкономить достаточно много времени. Единственный вариант у тех. поддержки получить доступ к Вашей машине не зная пароль, это остановить ее, отмонтировать диск, примонтировать его на мастер ноде, сменить пароль, отмонтировать его, снова примонтировать к Вашему VDS и запусить его. Но на все это, тоже нужно время. Проще, предоставить текущие доступы, а по окончании работ просто сменить пароль.

Прошу все выше написанное, воспринимать не как обвинение/оправдание, а исключительно как комментарий. Хостинг, достаточно сложная услуга и при ее использовании, клиенту, все таки необходимо иметь знание базовых принципов работы, это позволит гораздо быстрее и с меньшими затратами нервов решать возникающие проблемы. Не важно, нашими услугами Вы будете пользоваться или чьими то еще.

---------- Добавлено 27.04.2015 в 21:31 ----------

Magistry:
Интереса ради - а какое соотношение активных серваков с ovz и kvm?

Из 2034 VDS активных в данный момент, OpenVZ составляют всего 210. Так что, сильный перевес в сторону KVM. Правда, OpenVZ у нас, только на HDD.

Всего: 2241