Правильные бэкапы

123
Supsrv
На сайте с 30.11.2012
Offline
19
#11

rsnapshot

rsync

ну или первый вариант tar+bzip2 и смотреть в сторону ionice + nice чтобы сервер не лип сильно.

Компания SupSRV. IT- аутсорсинг, IT-консалтинг, системная интеграция. Опыт более 10 лет. Email:esennikova@supsrv.ru Skype: supsrv Tel: +7(932)535-73-73 Site: supsrv.ru (supsrv.ru)
Sasha Zerg
На сайте с 13.04.2010
Offline
60
#12

fsbackup - он для freebsd вроде? у меня центос

===

прочитал про rsnapshot - вроде всё понравилось. Но сильно ли он грузит систему?

И как проверять\восстанавливать архивы?

Вот, например, вирус уничтожил сайт1.ру. Сейчас я лезу в Яндекс.Диск, нахожу ближайший архивчик, заливаю его, распаковываю - готово. А rsnapshot - потребуется весь мега-архив распапковывать?

S
На сайте с 02.05.2014
Offline
61
#13
Sasha Zerg:
rsnapshot - потребуется весь мега-архив распапковывать?

Лично не проверял, но есть такая инфа

В папке бекапа создаются папки типа day.0, day.1 и т.п. соответствующие периоду архивации. Можно напрямую копировать их содержимое (полностью или частично) обратно в точку восстановления
http://wiki.enchtex.info/tools/archiving/rsnapshot (в комментариях)
lealhost
На сайте с 07.06.2014
Offline
136
#14

У нас после rsync'а создаются директории с жесткими ссылками, так что при повторном выполнении и получении ошибки или отсутствие файлов, он затрет файлы только в своей директории. Rsync идеальная вещь, благодаря поддержки инкрементального бэкапа.

Supsrv
На сайте с 30.11.2012
Offline
19
#15
Sasha Zerg:
fsbackup - он для freebsd вроде? у меня центос
===
прочитал про rsnapshot - вроде всё понравилось. Но сильно ли он грузит систему?
И как проверять\восстанавливать архивы?
Вот, например, вирус уничтожил сайт1.ру. Сейчас я лезу в Яндекс.Диск, нахожу ближайший архивчик, заливаю его, распаковываю - готово. А rsnapshot - потребуется весь мега-архив распапковывать?

Он делает слепок (hourly, daily, montly) на той же fs и пишет инкрементальные данные.

Это если есть место.

Sasha Zerg
На сайте с 13.04.2010
Offline
60
#16
Supsrv:
Он делает слепок (hourly, daily, montly) на той же fs и пишет инкрементальные данные.
Это если есть место.

Ну, это понятно: типа запустился скрипт, проверил есть ли обновления файлов, записал все обновления в файл "hour.N". Потом я залез по фтп и выкачал этот файл.

Но вот наступил день Х, когда нужно восстановить бэкап сайта Сайт1.ру (при этом не трогая другие сайты!):

  • Если железо не пострадало, пишу команду "rsnapshot ..." и восстанавливаю архив за такое-то число.
  • Если железу каюк, то заливаю скачанные архивы на новый серв, ставлю rsnapshot и восстанавливаю.

Я всё прально понял?))

---------- Добавлено 30.04.2015 в 16:21 ----------

В своих влажных мечтах я представляю всё так:

Есть сервер с сайтами на Центос, есть комп (клиент) на работе на WinХР, он 100% времени включен и смотрит в сеть. Раз в день клиент коннектится к серверу и забирает обновленные архивы или файлы. На клиенте места немерено, да и целый день ему делать нечего, поэтому он берет и раскидывает обновленные архивы по папкам сайтов, так что у меня получаются 2 месячных копии, 4 недельных, 7 дневных.

Затем, если какой-то сайт сдох, я просто беру и по ФТП заливаю выбранную папку с клиента на сервер.

Если сдох весь сервер или сгорел ДЦ: покупаю новый сервер, заливаю программу и все архивы, разархивирую.

====

Собственно, самое сложное - получить обновленные файлы архивом с адресами этих файлов куда их кидать. Остальное в принципе понятно: каждый день затирается сегодняшняя папка, копируется вчерашняя папка в сегодняшнюю и туда же копируются обновленные файлы. Во как)

S
На сайте с 02.05.2014
Offline
61
#17

Sasha Zerg, тогда rsnapshot именно то, что вам нужно.

Он сам будет осуществлять ротацию с нужным вам интервалом.

Но потребуется развернуть на компе с XP – ftp_сервер, а потом смонтировать в centos. И в нее бэкапить.

V
На сайте с 01.10.2006
Offline
136
#18

Если Вы расчитываете на "если сдох весь сервер", то бекапить надо весь раздел / tar gzip ssh

Проще потом поднять по-быстрому сервер с livecd+ssh и восстановить обратно.

Можно вообще извратиться и бекапить весь диск с помощью dd gzip ssh.

Только для экономии трафика перед бекапом забить свободное место нулями:

dd if=/dev/zero of=/zero.file bs=8M;rm -f /zero.file

Копируем sda, сжимаем и пуляем архив на удаленную машину:

dd if=/dev/sda | gzip | ssh user@host "dd of=/backup/host-sda.img.gz"

Восстанавливать так же просто - грузимся с livecd

ssh user@host "dd if=/backup/host-sda.img.gz" | gzip -d | dd of=/dev/sda

Для особых гурманов можно добавить дату к именам архивов и настроить ротацию :)

[umka]
На сайте с 25.05.2008
Offline
456
#19

Для гурманов, бэкапящих живые партиции tar-ом и dd-ом, на закуску будут потерянные файлы, убитые таблицы баз данных и пр.

Лог в помощь!
DV
На сайте с 01.05.2010
Offline
644
#20

dd непрактичен. Всё чохом, вместе с гуаном логов и временных файлов+ зачем-то контент. Ещё и разворачивать надо на той же геометрии.

Куда лучше разбить данные на две категории: система и контент.

Для первого тормозим все службы, кроме необходимых для бэкапа, делаем dump.

Дабы гумус не захватывало, ставим на всё, кроме системы, chflags.

Контент забираем tar'ом и mysqldump'ом.

Но тут у меня уже вопрос: mysqldump надолго блокирует большие базы, + сам HDD нещадно тормозит. Жалуются на недоступность сайтов в час X, который каждую ночь.

Надо что-то либо "ленивого" бэкапа базы, типа репликации, либо закэшировать сайт в статику и отдавать на время бэкапа.

VDS хостинг ( http://clck.ru/0u97l ) Нет нерешаемых задач ( https://searchengines.guru/ru/forum/806725 ) | Перенос сайтов на Drupal 7 с любых CMS. ( https://searchengines.guru/ru/forum/531842/page6#comment_10504844 )
123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий