tulkin, Да, не удачная модель ИБП была, при выходе на полную нагрузку, стали глючить. Заменили на APC, проблему решило.
tulkin, спасибо. Можете сказать логин, что бы я посмотрел какие именно проблемы были со стабильностью. Апрель, вроде как, выдался вполне спокойный. Это вот в марте было много траблов.
А вообще, над стабильностью работаем самым непосредственным образом. По этому и на серчах, иногда, отвечаю с задержками. Частые разъезды и переговоры. Готовим серьезный левелап для нашего проекта.
tulkin, Прошу прощения, недопонял сразу %).
Почему съехали? Над чем работать?
Можно, я сегодня не буду писать развернутые ответы? А то писать длинные тексты с телефона, достаточно утомительная работа. Да и цитаты толком не повставляешь. 4 мая буду на работе, напишу все подробно. Комменты все прочитал, к сведению принял. Админов, задачами нагружу.
WapGraf, вклинивайтесь, пожалуйста, я не против комментов коллег по цеху, особенно, таких дельных, а не примитивного бубнежа на тему оверселла без какой либо конкретики и профессиональных выкладок. Вы уж меня простите, srvgame, но Ваши комменты позволительны для пользователя, но уж ни как не для профессионального хостера. ---------- Добавлено 02.05.2015 в 23:48 ---------- tulkin, Вы напишите какой либо ориентир, чтобы я мог найти Ваш VDS. Логин, код сервера, номер тикета с проблемой. В принципе, это ко всем относится. Когда, парк состоит из более чем 120 серверов, а количество активных VDS более 2к, найти один конкретный, по описанию проблемы на серчах, дело не простое и требующее много времени. Даже, банальное листание графиков в Заббиксе может занять несколько часов. В идеале, указывайте еще время возникновения проблемы с указанием Вашего часового пояса.
Все серверы, работают независимо, и возникновение проблемы на одном из них, никак не отражается на работе других. Если бы проблема была глобальной, то нам бы уже тут все бы серчи порвали комментами.
Здравствуйте, Alex01d.
500 ошибка возникает где? При входе в биллинг? Напишите мне в личку логин и пароль, которые используете для входа в биллинг или на ящик саппорта.
Вы врите, но не завирайтесь на счет каждые 10 минут. И на счет оверсела тоже, кроме ядер ничего не оверселим, а по факту, их тоже не особо. Я Ваш хостинг не обсираю, проявляйте и Вы ко мне уважение. Из Ваших постов складывается мнение о Вас, и оно, прямо скажу, не айс. Если стремитесь заработать положительную репутацию в сообществе (и клиентов, соответственно), то меняйте стиль общения.
devilstar, посмотрел загрузку старой ноды, действительно есть периодическая сильная нагрузка на дисковую подсистему. Будем разбираться, что там так сильно грузит.---------- Добавлено 28.04.2015 в 20:28 ----------
Написал выше ).---------- Добавлено 28.04.2015 в 20:41 ----------
Спасибо за замечание. В прайсе не исправили. На сайте верная информация.
Нода, на которую перенесли devilstar-а, уже заполнена, новых VDS-ов на ней не предвидится. Собственно говоря, этот VDS стал последним.
Скорее всего, закроем со временем. Но сделаем это естественным путем. По сложности поддержки, особых проблем нет. Как говорится, каши не просит. От HDD, скорее всего будем вообще отказываться. Поскольку это не выгодно и бесперспективно.
Вполне нормально, скорость высокая. Износ (циклов записи) не высокий. Отказов, за полтора года ни одного. HDD, уже кучу поменяли.
Работаем над этим ;).
Скажу главному разработчику. Он свяжется с Вами.
Живой миграцией пользуемся каждый день. Увеличение ресурсов на лету отрабатываем для внедрения в свою панель.
Что значит закончилось место?
При виртуализации KVM, диск выделяется блоком, согласно тарифа и монтируется как LVM-том.
Не путайте с OpenVZ-виртуализацией, где, в принципе можно оверселить диск. Здесь, с нашей стороны, ресурсы были выделены в полном объеме. По этому, место могло закончится только внутри контейнера, но никак не снаружи его.---------- Добавлено 27.04.2015 в 21:10 ----------
Уважаемый, tlk, я внимательно перечитал Вашу переписку с тех. поддержкой. В данном случае, мне даже не за что их упрекнуть. С нашей стороны, никаких сбоев не было, все работало в штатном режиме. Ребята из поддержки отвечали быстро и корректно.
В 08:09:17, от Вас поступил запрос. В 09:39:46, Руслан написал, что исправил проблему. В 10:02:35, Вы подтвердили, что все работает. Причем, судя по переписке, первый час из этих полутра часов ушел на попытку получить от Вас доступ к Вашему VDS. То есть, решение самой проблемы уложилось в 30 минут.
Как раз именно reboot+fsck и помог устранить проблему. Проблема образовалась внутри Вашей файловой системы, а не на мастер-ноде. То есть, по факту, это Ваша епархия, к которой мы доступа не имеем. Как вариант, файловая система могла быть повреждена Вашими разработчиками, но это лишь мои предположения. Можете у них поинтересоваться, какие действия они проводили на сервере до возникновения проблемы. Возможно, это прояснит ситуацию.
Про время решения, я написал Выше. Ваш сервер никуда не мигрировали. Все что было сделано, это reboot+fsck. Тоже самое, Вы могли сделать самостоятельно, не обращаясь в тех. поддержку.
Я бы начал поиск виновного с разработчиков.
В среде профессиональных разработчиков есть следующее правило, никогда ничего не запускать в продакшн в пятницу и в понедельник. В первом случае, некому будет исправлять ошибки на выходных. Во втором случае, понедельник - день тяжелый. Лучше еще раз все проверить. Потом, никогда не производить разработку на продакшн-машине. Для этого, всегда должна быть тестовая среда.
Немного подытожу:
1. Телефон офисный, в основном для консультаций и решения орг-вопросов. Время работы с 10 до 18 часов, оно, официально указано на сайте: http://take.ms/qKpRL, также, указаны категории решаемых вопросов. Последнее время, часто отвечаем до 2-3 ночи. Поскольку часто засиживаемся на работе допоздна. Но рабочий день у сотрудников, которые приходят с утра, начинается в 10 часов. Тех. поддержку по телефону оказываем только по мере возможности и наличия свободных инженеров. В последствии, будем вводить тех. поддержку по телефону, но пока приоритет на тикет-систему. И как видно из переписки, нам удалось отладить ее работу на достаточно хорошем уровне.
2. /tmp, директория внутри Вашего сервера, к мастер-ноде, никакого отношения это не имеет. При использовании аппаратной виртуализации KVM, наличие или отсутствие свободного места на мастер ноде не может никак повлиять на работу VDS, поскольку дисковое пространство выделяется согласно тарифу при создании виртуальной машины. Если места нету то машина просто не создастся. Если есть, то все место резервируется сразу, таким же образом, как Вы разбиваете диск на своем компьютере и указываете какого объема будет тот или иной раздел и Вы не сможете создать логических дисков суммарным объемом больше, чем есть на физическом носителе.
3. При возникновении проблемы, лучше сразу, в первом же запросе, предоставить все необходимые данные для доступа к VDS. Как видно выше, это может сэкономить достаточно много времени. Единственный вариант у тех. поддержки получить доступ к Вашей машине не зная пароль, это остановить ее, отмонтировать диск, примонтировать его на мастер ноде, сменить пароль, отмонтировать его, снова примонтировать к Вашему VDS и запусить его. Но на все это, тоже нужно время. Проще, предоставить текущие доступы, а по окончании работ просто сменить пароль.
Прошу все выше написанное, воспринимать не как обвинение/оправдание, а исключительно как комментарий. Хостинг, достаточно сложная услуга и при ее использовании, клиенту, все таки необходимо иметь знание базовых принципов работы, это позволит гораздо быстрее и с меньшими затратами нервов решать возникающие проблемы. Не важно, нашими услугами Вы будете пользоваться или чьими то еще.---------- Добавлено 27.04.2015 в 21:31 ----------
Из 2034 VDS активных в данный момент, OpenVZ составляют всего 210. Так что, сильный перевес в сторону KVM. Правда, OpenVZ у нас, только на HDD.