- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, есть сервер на Centos. На нем несколько сайтов с кучей файлов (>500k). Вопрос: как всё это дело бэкапить?
Я вижу 3 варианта:
Что посоветуете?
Что посоветуете?
Купить Backup хостинг, желательно с поддержкой rsync и настроить crontab.
А rsync сам разберется что добавить, что обновить, а что удалить из бэкапа.
rsyncом на 500к вполне можно пользоваться, но это не бэкап, это копия, если вдруг что-то где-то затрет файлы, засрет их вирусами и т.д. и пройдет rsync по крону, то восстановить уже нельзя будет.
Для бэкапов это dump/restore или более современный утилитки, которые позволяют восстанавливать любую версию бэкапа. Можно даже git на каждый сайт попробовать, должен нормально себя вести и всегда позволит откатиться на любую версию.
В архиве всё весит около 30 Гб, без архива - хз, очень много, разорюсь на бэкап-хостинге. Да и не хотелось бы лить сайты на чужой сервер.
zzzit, буду благодарен рекомендации конкретной утилиты) желательно, простой - для криворуких админов
В архиве всё весит около 30 Гб, без архива - хз, очень много
А вы попробуйте узнать размер, вот команда
Архивируем на серваке, заливаем архив на я.диск.
А разве я.диск дает бесплатно 30гб? Вроде нет.
За 10$ можно купить 140Гб, можно и дешевле поискать (2-3 рубля за гиг). Как по мне, сумма не очень большая.
Да и не хотелось бы лить сайты на чужой сервер.
Дело ваше, но проще и быстрее придумать, что то сложно.
если вдруг что-то где-то затрет файлы, засрет их вирусами и т.д. и пройдет rsync по крону, то восстановить уже нельзя будет.
Да, действительно, но никто не мешает уже на той машине сжимать в архив, и складывать локально, так же можно настроить их ротацию, я сам так поступаю (только делаю еще 1 копию на другой ftp сервер).
zzzit, буду благодарен рекомендации конкретной утилиты) желательно, простой - для криворуких админов
Сейчас этих утилиток много наплодилось, вот attic например популярная
https://attic-backup.org/ или bup https://github.com/bup/bup
Да тут же все примитивно
Берем бекап сервер и делаем rsync
Раз в день на самом бекап сервере делаем локальный rsync
Таким образом имеем архив всех файлов, даже если их покоцал вирус
Скрипт написать - работы на час
Скрипт написать - работы на час
Andreyka +1, но час это очень много.
Тут 2х строчек хватит.
На сервере с которого бэкапим:
где 22475 номер порта (если не меняли, то 22)
На бэкап машине
Сохраняем это в файл backup_rsync.sh
А потом добавляем задание в crontab
На основном сервере
На бэкап хостинге
Как то так. Надеюсь пригодится.
используйте rsnapshot
Ой, всем пасибо огромное) Буду пробовать
fsbackup и инкрементальный бэкап.