- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Проблема у нас такова, что при резервном копировании LA поднимался до 10-20 за счет высокого iowait. Проблема была в большом обилии мелких файлов у некоторых клиентов. В итоге, дело дошло до такого, что ежедневное резервное копирование не успевало выполняться.
На данный момент планируем перейти на инкрементальное резервное копирование.
Из минусов: копии не сжаты, копия хранится только за последний день, сложность передачи на удаленный сервер
До этого просто паковали в архив данные клиентов, переносили их на удаленный сервер.
У нас Cpanel и DirectAdmin, копии делаются встроенными средствами, чтобы в случае каких-то аварийных случаев делать полное восстановление данных, фактически в автоматическом режиме.
В голове просто держится примерно такая схема: понедельник - делается полная копия аккаунтов клиентов, архивируется, передается на удаленный сервер, архив удаляется с локального сервера, далее от полной копии ежедневно создаются инкрементальные копии, архивируются и также передаются на удаленный сервер.
Может быть кто-то уже уже сталкивался с подобными проблемами? Есть ли какие-то сторонние и проверенные плагины для реализации такой схемы или еще более идеальной? :)
имеет ли в вашем случае каждый день бекапить файлы?
Я каждый день бекаплю базы, а сайты раз в неделю.
имеет ли в вашем случае каждый день бекапить файлы?
Я каждый день бекаплю базы, а сайты раз в неделю.
Тоже верно. Но вообще, как где-то читал, держать самую актуальную версию всего где-нибудь все же стоит. Разные случаи бывают :)
Для директадмина вынесите /home/tmp на другой винт, нагрузки будет меньше. Есть еще плагин dabackup, который через rsync бекапит. И вообще, странно, что iowait так скачет, скорей всего чего-то с дисками.
необходимо взвесить ценность тех или иных данных.
обычно бакапят скрипты и код - чаще, базы данных - чаще, какие то особо важные таблички бакапят даже каждые 20 минут. картинки - реже.
очень большие объемы данных - не бакапят. например у меня есть клиент - у которого 15Тбайт картинок. естественно их никто не бакапит никуда, ипользуется просто масштабируемая СХД и внимательно мониторится состояние НЖМД.
современные панели управления не умеют более грамотных решений бакапов, акромя засовывания в gzip\bzip - а это не самый верный способ.
если вам хочется организовать грамотную систему бакапирования, с ограничением на ресурсы машин (что бы gzip не жрал весь CPU) , то, возможно,прийдется отказаться от штатных средств бакапов через панель.
не совсем большие проекты - снятие дампов, архивирование файлов и на удаленный бекапный сервер,
а что далеко по сети не угонишь изза размеров - на дополнительный диск этого же сервера синхронизирую.
Бэкапить только то, что изменилось с момента последнего бэкапа.
Для директадмина вынесите /home/tmp на другой винт, нагрузки будет меньше. Есть еще плагин dabackup, который через rsync бекапит. И вообще, странно, что iowait так скачет, скорей всего чего-то с дисками.
Кстати, как вариант. Так как сначала данные копируются в отдельную папку, потом с ними идет работа.
Диски хорошие, новые, меняли только в начале года. SMART тесты проходят, параметры все хорошие.
DirectAdmin, кстати, как-то более грамотно делает копии, так как на нем объем данных больше, а нагрузки фактически нет. А вот Cpanel творит чудеса.
---------- Добавлено 15.09.2013 в 13:24 ----------
необходимо взвесить ценность тех или иных данных.
обычно бакапят скрипты и код - чаще, базы данных - чаще, какие то особо важные таблички бакапят даже каждые 20 минут. картинки - реже.
очень большие объемы данных - не бакапят. например у меня есть клиент - у которого 15Тбайт картинок. естественно их никто не бакапит никуда, ипользуется просто масштабируемая СХД и внимательно мониторится состояние НЖМД.
современные панели управления не умеют более грамотных решений бакапов, акромя засовывания в gzip\bzip - а это не самый верный способ.
если вам хочется организовать грамотную систему бакапирования, с ограничением на ресурсы машин (что бы gzip не жрал весь CPU) , то, возможно,прийдется отказаться от штатных средств бакапов через панель.
На хостинге за клиента особо не взвесишь, что в его папках. Да и что-то для этого необходимо интересное изобретать. Да и все данные надо стараться хранить в актуальном состоянии...
У нас о надежности дисков говорить сложно, сервера стоят в Hetzner'e. С дисками там всегда беда, в следствии этого и печемся. Правда, в начале этого года, удалось добиться установки новых дисков, пока тьфу-тьфу-тьфу - все ОК.
Да, именно так панели и делают.
Спасибо, будем думать :)
---------- Добавлено 15.09.2013 в 13:26 ----------
не совсем большие проекты - снятие дампов, архивирование файлов и на удаленный бекапный сервер,
а что далеко по сети не угонишь изза размеров - на дополнительный диск этого же сервера синхронизирую.
Дополнительный диск для нас точно не вариант. Не надежно... Помню историю с украинским ДЦ, где сгорела часть серверов - данных было не восстановить. Поэтому как-то боязно.
---------- Добавлено 15.09.2013 в 13:29 ----------
Бэкапить только то, что изменилось с момента последнего бэкапа.
Это и есть инкрементальные копии :)
Раз в неделю бэкапится с помощью xtrabackup + pigz и заливается в облачное хранилище Селектела (под 200Мбит/сек).
Сколько у вас оперативы свободно на сервере?
Может быть кто-то уже уже сталкивался с подобными проблемами? Есть ли какие-то сторонние и проверенные плагины для реализации такой схемы или еще более идеальной? :)
Есть. R1soft (Idera).
На крайний случай, Vembu или bacula4hosts.
Евгений Русаченко, не так давно были обсуждения на эту тему хостеров. полистайте.