Например, у вас 4 диска по 2Tb.
Ставите Debian10. При установке отрезаете кусок от каждого диска по 1,5Tb, делаете из него raid10 /. Можно по вкусу /boot, swap.
Дальше у вас остается условно по 500Gb на каждом диске, из этих кусков делаете raid0 и монтируете /raid0
Дальше конвертируете в proxmox, подключаете директорию /raid0 .
Когда создаете виртуалку создаете ее либо на raid0, либо подключаете дополнительный диск на /raid0.
Дальше регулярно бэкапите то что нужно, если вываливается диск, вы его также разбиваете и добавляете кусок диска в raid10, а с оставшимся куском пересоздаете raid0.
По вкусу можно примерно такое же получить, но добавить lvm, либо zfs.
Но все это баловство в любом случае. Исходить нужно из бюджета и того на каких ресурсах проект работает сейчас.
С большой долей вероятности ускорить можно за счет правильной настройки сервисов, кэширования и т.д. Тут поле для деятельности безгранично.
Разделите диск на части и соберите под нужные данные raid10, оставьте на каждом диск по куску, например, 200Gb и сделайте из этих кусков raid0.
Тогда у вас будет рабочая хост машина всегда + живой бэкап.
А виртуалку или один из дисков виртуалки можете сделать на raid0.
У вас же все равно софтово все.
Можете поставить сначала debian c mdraid, потом конвертировать в proxmox, либо ставить proxmox на zfs. В обоих вариантах есть особенности.
Либо возьмите 2 SSD и 2 HDD, тогда ваша проблема решится.
Я против тоже ничего не имею и использую) Я против тенденции пихать его везде где надо и не надо.
Когда деньги перестанут в это лить и надувать щеки также окажется никому не нужно. Тот кто платит, хочет, чтобы было красиво, с картинками, графиками, дигаммами.
Все это баловство, призванное закрыть дыру в отсутствии квалифицированных системных администраторов, которое покрывает криворуких программистов со всякими ci, devops и прочими модными словами. Когда перестанут платить за количество строк кода, а начнут за результат, ситуация, возможно, изменится.
Мирантис купил докер ынтерпрайз, чтобы надежно его закопать))
kxk, признавайтесь, вас Andreyka укусил и обратил в свою докерную веру или наоборот? ))
Все просто, пока у вас приложение простое и самодостаточное, а когда нужно запустить 1,5 десятка контейнеров обвеса, вязать это с биллингом, обсчитать ресурсы и следить что-то это работало, все становится не таким уж и простым.
Для каждой задачи, свои инструменты. Сгоняйте на тесле в магадан и обратно)
Потому что это один из самых стабильных и гибких продуктов, с хорошей документацией к API, который не ломает половину сервера при обновлении.
EOL фичи анонсируют заранее с большим переходным периодом.
Понятный, предсказуемый цикл разработки.
Да в нем есть анархизмы, но их не так много. Позволяет настроить все очень гибко штатными или почти штатными средствами.
Собираете нужную версию sqlite в /opt/sqlite_custom
Далее configure php с ... --with-sqlite3=shared,/opt/sqlite_custom/usr --with-pdo-sqlite=shared,/opt/sqlite_custom/usr ...
Далее make, получите sqlite3.so и pdo_sqlite.so
Дальше либо кастомно юзеру это подключаете, либо заменяете глобально для нужной версии.
Можно один раз мигрировать в вируталку и дальше всегда пользоваться виртуальной машиной. Ее легче бэкапить и переносить.
Загрузить с livecd и по сети слить образ, либо временно попросить подключить дополнительный диск.
Если там у вас сейчас 50Gb данных, а раньше было 500, лучше сначала забить все место на диске файлом из нулей и потом удалить его. Так получите в конце образ примерно равный объему полезных данных на диске.
У clonezilla должна быть возможность сжать данные при сохранении образа диска. Вы что-то не так делаете, если получаете образ равный образу физического диска.
Какая у вас операционная система и текущая разбивка диска?