ENELIS

ENELIS
Рейтинг
194
Регистрация
29.08.2008

Мы прописываем через тикеты RDNS или же делегируем подсеть на Ваши НСы.

Еще дешевле кимсуфи? :D

sladkydze:
Люда, а зачем это все? Не проще ли купить готовые правильные внешние СХД?! Там практически те же деньги получаются. Но все работает из коробочки, и работает хорошо.

Работает на том же опенсорсе... До первой проблемы, где они умоют ручки тыкая в мелкий текст на другой стороне бумажки, плавали, знаем.

lonelywoolf:
Он готов еще меньше чем ZFS, ИМХО. Основных причин его использовать только одна: отсутствие альтернатив.

Я очень много матерился, когда читал по нему документацию - многие мелкие моменты там еще просто не готовы. Ну и обновлять это дело в случае чего ооочень печально. Собственно, поднять - поднял, погоняли с клиентом и решили, что кластер организуем более традиционными методами. Особенно понравились логи на 10 гигабайт при отвале одной из нод на полчаса, мдэ.

Про то и речь... Есть готовое и рабочее решение, которое выполняет все требования практически из коробки (придется немного помозговать с HAST, но это довольно просто и мануалы в интернете есть).

Хотя честно говоря, с SSD можно опустить HAST, вероятность потери всех данных стремится к нулю в новых платформах с использованием SSD просто потому что все элементы на пути к данным имеют защиту от электрических проблем (основные ошибки вызываются именно ими). А если что-то и будет то это покроет бекап, даже в пассивном режиме, т.к. ZFS позволяет делать инкрементальный бекап из коробки. Вместо второй системы лучше вложиться в Infiniband и поставить таки QDR сеть, которая в поддержке https://wiki.freebsd.org/InfiniBand уже. Или без экспериментов поставить 40гб сетевухи и купить свитч...

lonelywoolf:
Да, вещь хорошая в сравнении с линуксовыми. На фрях и сетевой стек получше. Тут - да, zfs сам бог прописал.

В любом случае, если увеличивать кластер, то будет накладно его содержать в ceph или любой другой кластерной ФС, репликация DRBD будет накладной в плане сети и конфигурации.

Намного проще поднять FreeBSD хранилище с HAST. Единственная проблема - возможный split brain.

Но эта проблема возможна везде.

Евгений Русаченко:
ENELIS, ZFS в продакшн рано. Посмотрите их трекер, там полно ошибок о блокировках. Буквально недавно сам словил такие проблемы, в виртуальных машинах на ZVOL происходили блокировки ввода / вывода при нагрузке. На LVM при той же конфигурации проблем нет :)

Не вижу таких проблем там. В основном косметические.

Как я уже говорил, выход в хранилище на FreeBSD. Будет надежнее.

lonelywoolf:
На Linux, ага. Она там до сих пор не готова к промышленному применению. Еще btrfs посоветуйте...

Если Вы живете в 2012 то да. Сейчас ZoL почти полностью соответствует OpenZFS спецификациям.

Если можете использовать Ceph, то ZoL уж точно.

Ну или ZFS хранилище на БСД, еще лучший и более стабильный вариант.

В мусор райд. Используйте ZFS, там все это из коробки и довольно просто. RAID карты - это SPoF в любой системе.

Бекап утилиты конечно не существует для ВПС на LVM, однако есть варианты. Мы внутри нод использовали кластер ganeti, приходится выкручиваться с подобной системой и написали собственный скрипт для бекапа на любой сервер через SSH на ZFS без особой нагрузки. Todo есть на создания карт 4кб блоков для еще пущего упрощения бекапа и увеличения скорости.

Сейчас ZoL вполне себе взрослый для использования в продакшне, никаких проблем в работе с ним нет (кроме невозможности уменьшения виртуальных девайсов в онлайне), скорость он дает быстрее. Кеш настраивать можно тоньше, защита от bitrot... В общем одни прелести. Да придется поделиться памятью (грубо говоря 3-10гб на 1 ТБ данных в зависимости от функционала) - но это того стоит.

esperto:
Выбрал: Дешево, качественно.
И? :)

Будет медленно

Что тут непонятного?

---------- Добавлено 06.08.2016 в 15:11 ----------

VHS:
Однако, мне до сих пор непонятно, почему у хостера нет бекапов виртуальных машин. Я ни разу не верю в то, что контроллер самопроизвольно изменил файловую систему, скорее работы по обновлению вмваре, прошивки контроллера и тп, перестановке массива на контроллер с другой прошивкой... У самого в офисе сервера с LSI, есть опыт. Ну это так и останется тайной, имеем только официальную версию. Хотя куда проще было купить б/у обычные диски и лить туда хотя бы еженедельно бекапы, 99% юзеров даже не узнало бы о проблемах. Обошлось бы в 3 копейки.

На данный момент нет 100% гарантирующей сохранность данных дублицирующих технологий без каких-либо заковырок.

То что бекапа не было - это да, странно. Но с другой стороны, они это и не предлагали ведь?

pavel_e:
а как же всякие аппаратные решения типа "кластеры", когда в случае падения одной ноды виртуальная машина целиком мигрирует на другую ноду?
и если ноды разнесены, то и пожар не так страшен...

Хаха, насмешили :)...

Дешево, быстро, качественно - выберите любые два.

Кластерные данные обычно хранят на master-master active/passive хранилище в том же дц. Чаще всего хранилища одной и той же фирмы ибо иначе не выйдет делать кластер из-за проприетарщины.

Это хранилище обычно одно, никто не раскидывает данные по нодам, ибо такое решение увеличивает технические требования и не скалируется нормально.

Всего: 1657