Bananzz

Рейтинг
94
Регистрация
21.10.2010

Ёпте. Потому что у меня одной Европы в тестах на скорость 4 точки присутствия.

И с одним и тем же сервером в России скорость скачет на поток от 12 до 200 мегабит)))

Всё равно будет когда помидоры на рынке выбираете)))

А если работаете в технологической сфере и беретесь за сервера и каналы рассуждать - хоть разберитесь как всё это работает. Ну хоть примерно)

На это надо потратить пару часов времени и прочитать с пяток хороших статей.

Иными словами, ваша методология тестирования - нерепрезентативное говно))

yoursupport:
А отказаться от текущего-глючного сервера и заказать аналогичный новый?

Есть подозрение что что-то у OVH не то с данной конкретной платформой.

В такой ребут уходит всегда активная нода (у нас вторая в hot-standby или подгружается немножко), нода в ожидании стоит с аптаймом в 60+ дней и хоть бы хны.

Пассивная нода не пытается ребутаться (и проблема повторяется именно на обоих D1540; 1520 стоит стабильно)

Тесты, прогревы не роняют ни один из серверов, в логах чистота стерильная, а активная нода (в любое время суток, без связи с иопсами, памятью и т.п.) всё ж таки падает :(

Есть полтора десятка других ферм на разном железе и нигде такой проблемы нет...

+У ovh конкретно такой конфигурации как у нас уже нет; железка отработала год (и её хватает), но можно сейчас взять с запасом на пару лет и под планируемые проекты на начальной стадии за немногим большие деньги

Поэтому и смотрю варианты

Для первого кластера взята текущая конфигурация с OVH, но один app-узел прям нестабильно работает (до 4 перезагрузок в неделю, самодиагностика чистая, мониторинг чистый. Как по питанию его дёргает) и это напрягает уже не только админов.

OVH (как у них и заведено) проблему решать не спешат уже который месяц (!)

Так что от цены OVH готовы двигаться. И готовы в-принципе менять структуру кластера (убирать промежуточный сторадж внутрь основного кластера, например, уменьшая сроки хранения в "горячем" кеше).

Предложение от ua-hosting выглядит поэтому неплохим, но хочу посмотреть что есть ещё.

Второй рабочий вариант - поменять аппы на супермикры на SP-128 у ovh, но нет vRack и его не сделать.

У текущих аппов он 10G и это очень удобно. Работало бы ещё стабильно :)

У нас вообще последнее время проблемы со скоростью в один поток по направлению Россия <--> Европа между серверами; всё что приходит в RETN превращается в боль.

Так что тут вопрос про "медленное соединение" вообще не к айхору может быть.

Смотрели иперфы со всеми ДЦ с кем только можно - везде всё в датацентрах в порядке. Европа-Европа летает (300-400мбс в одно соединение). Даже Европа-Канада (между разными ДЦ) ходит в 70-80мбпс в один коннект.

А вот с Россией - 15-20 и фигвам.

Ну а повесить интерфейс ethtool в 100мбпс и удивляться почему так мало - это вообще эпично)))

Рассматриваем, но тут L7@Chipcore по 20 копеек за гигабайт, кажется, вне конкуренции.

У вас предложение по этому критерию хуже в два раза, плюс только в сети.

Это запрос на две условно-независимых структуры :)

1. Основной web-трафик укладывается в 10ТБ/month

кросс-дц бэкапы потратят суммарно не больше (и нам не составит проблемы отследить потребление траффика и размазать между серверами их)

Хотелось бы чтобы узлы находились хотя бы в разных power-юнитах, лучше - в разных модулях ДЦ

При этом оставляем всё в одном ДЦ, иначе реплики сильно растягиваются и начинаются неприятности.

2. Кластер приложений не связан напрямую с стораджами.

Стораджи живут отдельно, в разных датацентрах (с разной географией) общаются между собой по vpn.

Выделенный линк кластера приложения и стораджей не требуется.

Объём хранения без учета фактора репликации от 10ТБ

Объём стабильного исходящего траффика - в единицах мегабит после ввода в эксплуатацию без учета служебного трафика (его оценить пока сложно, тестируем разные реализации).

Как следствие, на вводе в эксплуатацию хорошо бы иметь гигабит и 30ТБ; в стабильном состоянии можно говорить о 100mbps unmetered или гигабит с разумным лимитом.

Всем спасибо за предложения!

Решение нашлось :)

Ресурс почти не использован - всего чуть больше одной перезаписи. ССДха enterprise-класса. Можно пользоваться и не париться ни о чем)

Вот когда записей будет хотя бы 200 объёмов - тогда стоит посматривать внимательнее за SMART)


Если Вы публично отписали ответ в таком стиле, то будьте пожалуйста готовы уточнить, проблема в нас, или в Вас. Если все же в нас - пожалуйста уточните публично, мы готовы обсудить свои недостатки и исправить их. Ибо если проблема на нашей стороне - нам само собой интересно исправить эту проблему, чтоб не было повторных случаев негативного опыта у других наших клиентов.

Нет, речь идёт о другой ситуации.

Работали с вами в 2013-15 годах, на дедиках, но ушли из-за того что переросли имеющееся железо, а более интересных предложений не было.

Позже вернулись для хостинга мелких проектов на впсках и столкнулись с проблемами по ресурсам и биллингу (#866722).

Основная проблема - в недопонимании всех ваших подводных камней по использованию трафика с нашей стороны (мы исходим из того, что у нас есть 4Тб и мы их расходуем как хотим и когда нам надо; потратим больше - оплатим перерасход, не страшно), а также в том, что сервера гасились без предупреждения (см 762120, по первому инциденту вы нас не предупредили никак), а для включения во второй раз вы с нас попросили депозит в стоимость размещения за полтора года (!!).

Благо, мы всё подняли из бэкапов у другого хостера, как только проблема стала явной и стало очевидно, что решения устраивающего всех мы не найдём.

Ну и заодно избавили вас от маломаржинальной услуги с большими голвняками :)

Не думаю, что "внезапное отключение" возникло бы при использовании более дорогих услуг, и не думаю что есть много клиентов, которые с копеечной впски выжмут 4ТБ+/месяц, поэтому ситуация скорее носит разовый характер и весьма индивидуальный характер и лежит в области коммуникаций. Именно поэтому я не стал нигде оставлять "разгневанных отзывов" и рассказывать какие вы плохие :)

Но работать с вами когда ещё всё было "в старом биллинге" было приятнее, чем сейчас. Увы.

Ситуация разруливалась тем, что ДО отключения стоило написать тикет/письмо хотя бы за 6 часов. Не было бы негатива и не было бы проблем.

Собственно, второе отключение было сильно лучше первого (хоть и в не самое рабочее время для нас).

Из делавших здесь предложения ещё...

С Amhost мы работали и работаем и сейчас - реально крутые ребята и саппорт/админы за всё время работы хуже не стали. Если бы у нас не было своей админ-команды, то амхост был бы первым выбором.

С ними был даже случай, когда я забыл продлить свой личный сервер на несколько дней. Саппорты написали тикет до отключения, я его увидел, но оплатить оперативно возможности не было. Попросил оставить машину включенной на два дня и оплатил как только появился доступ к кошелькам. Это реально уровень. И их я и сейчас рекомендую знакомым для некоторых проектов.

Всего: 282