- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
rsnapshot
rsync
ну или первый вариант tar+bzip2 и смотреть в сторону ionice + nice чтобы сервер не лип сильно.
fsbackup - он для freebsd вроде? у меня центос
===
прочитал про rsnapshot - вроде всё понравилось. Но сильно ли он грузит систему?
И как проверять\восстанавливать архивы?
Вот, например, вирус уничтожил сайт1.ру. Сейчас я лезу в Яндекс.Диск, нахожу ближайший архивчик, заливаю его, распаковываю - готово. А rsnapshot - потребуется весь мега-архив распапковывать?
rsnapshot - потребуется весь мега-архив распапковывать?
Лично не проверял, но есть такая инфа
http://wiki.enchtex.info/tools/archiving/rsnapshot (в комментариях)
У нас после rsync'а создаются директории с жесткими ссылками, так что при повторном выполнении и получении ошибки или отсутствие файлов, он затрет файлы только в своей директории. Rsync идеальная вещь, благодаря поддержки инкрементального бэкапа.
fsbackup - он для freebsd вроде? у меня центос
===
прочитал про rsnapshot - вроде всё понравилось. Но сильно ли он грузит систему?
И как проверять\восстанавливать архивы?
Вот, например, вирус уничтожил сайт1.ру. Сейчас я лезу в Яндекс.Диск, нахожу ближайший архивчик, заливаю его, распаковываю - готово. А rsnapshot - потребуется весь мега-архив распапковывать?
Он делает слепок (hourly, daily, montly) на той же fs и пишет инкрементальные данные.
Это если есть место.
Он делает слепок (hourly, daily, montly) на той же fs и пишет инкрементальные данные.
Это если есть место.
Ну, это понятно: типа запустился скрипт, проверил есть ли обновления файлов, записал все обновления в файл "hour.N". Потом я залез по фтп и выкачал этот файл.
Но вот наступил день Х, когда нужно восстановить бэкап сайта Сайт1.ру (при этом не трогая другие сайты!):
Я всё прально понял?))
---------- Добавлено 30.04.2015 в 16:21 ----------
В своих влажных мечтах я представляю всё так:
Есть сервер с сайтами на Центос, есть комп (клиент) на работе на WinХР, он 100% времени включен и смотрит в сеть. Раз в день клиент коннектится к серверу и забирает обновленные архивы или файлы. На клиенте места немерено, да и целый день ему делать нечего, поэтому он берет и раскидывает обновленные архивы по папкам сайтов, так что у меня получаются 2 месячных копии, 4 недельных, 7 дневных.
Затем, если какой-то сайт сдох, я просто беру и по ФТП заливаю выбранную папку с клиента на сервер.
Если сдох весь сервер или сгорел ДЦ: покупаю новый сервер, заливаю программу и все архивы, разархивирую.
====
Собственно, самое сложное - получить обновленные файлы архивом с адресами этих файлов куда их кидать. Остальное в принципе понятно: каждый день затирается сегодняшняя папка, копируется вчерашняя папка в сегодняшнюю и туда же копируются обновленные файлы. Во как)
Sasha Zerg, тогда rsnapshot именно то, что вам нужно.
Он сам будет осуществлять ротацию с нужным вам интервалом.
Но потребуется развернуть на компе с XP – ftp_сервер, а потом смонтировать в centos. И в нее бэкапить.
Если Вы расчитываете на "если сдох весь сервер", то бекапить надо весь раздел / tar gzip ssh
Проще потом поднять по-быстрому сервер с livecd+ssh и восстановить обратно.
Можно вообще извратиться и бекапить весь диск с помощью dd gzip ssh.
Только для экономии трафика перед бекапом забить свободное место нулями:
dd if=/dev/zero of=/zero.file bs=8M;rm -f /zero.file
Копируем sda, сжимаем и пуляем архив на удаленную машину:
dd if=/dev/sda | gzip | ssh user@host "dd of=/backup/host-sda.img.gz"
Восстанавливать так же просто - грузимся с livecd
ssh user@host "dd if=/backup/host-sda.img.gz" | gzip -d | dd of=/dev/sda
Для особых гурманов можно добавить дату к именам архивов и настроить ротацию :)
Для гурманов, бэкапящих живые партиции tar-ом и dd-ом, на закуску будут потерянные файлы, убитые таблицы баз данных и пр.
dd непрактичен. Всё чохом, вместе с гуаном логов и временных файлов+ зачем-то контент. Ещё и разворачивать надо на той же геометрии.
Куда лучше разбить данные на две категории: система и контент.
Для первого тормозим все службы, кроме необходимых для бэкапа, делаем dump.
Дабы гумус не захватывало, ставим на всё, кроме системы, chflags.
Контент забираем tar'ом и mysqldump'ом.
Но тут у меня уже вопрос: mysqldump надолго блокирует большие базы, + сам HDD нещадно тормозит. Жалуются на недоступность сайтов в час X, который каждую ночь.
Надо что-то либо "ленивого" бэкапа базы, типа репликации, либо закэшировать сайт в статику и отдавать на время бэкапа.