- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт весом свыше 3Гб. В составе сайта около 3000 файлов pdf и несколько сот картинок. Все объемы только увеличиваются.
Как делаю сейчас... периодически tarом архив, в gzip его и курлом на яндекс диск...
Интересует, есть ли способ проще? в плане ресурсов VDS.. скажем купить где-то VDS, на него ISP а уже средствами ISP настроить бекап, чтобы тот вдс тянул с моего сайта все файлы rsyncом или ещё как-то... ну т.е. чтобы это всё на крон повесить, ибо не хочется, чтобы все файлы в один прекрасный день на *** полетели ))))
короче, можно ли реализовать бекап попроще в плане системных ресурсов?
короче, можно ли реализовать бекап попроще в плане системных ресурсов?
Почитайте тему , там даже примеры есть.
сейчас сайт на хостинге или сервере?
Простое решение с помощью duplicati:
b.sh
#!/bin/sh
mysqldump -ulogin -ppassword --all-databases | gzip > /var/www/admin/data/www/db.sql.gz
/usr/lib/duplicati/Duplicati.CommandLine.exe backup -if-more-than-n-incrementals=24 --volsize=1000MB --auto-cleanup --no-encryption /var/www/admin/data/www/ ftp://login:pass@ftp.livedrive.com
/usr/lib/duplicati/Duplicati.CommandLine.exe delete-older-than 365D --force --no-encryption ftp://login:pass@ftp.livedrive.com
https://github.com/opennet/FSBackup - старое решение, но рабочее. Делаем инкрементальный бакап в нужную директорию, а оттуда уже чем нибудь современным синхронизируем в облака.
Использую на центос+веста такой способ http://www.region-brand.ru/nastrojka-vps/rezervnoe-kopirovanie-bekapa-servera.html#3
На мой взгляд веста и бесплатна, и проста, и легка. Она сохраняет бэкап ежедневно. Каталог с бэкапами снхронизирован с я.диском, ответственно архив сохраняется и загружается на я.диск абсолютно без вашего участия ежесуточно. Единственно с вашим размером архива придется 1 раз в 2-е суток чистить корзину я.диска на бесплатном тарифном плане, либо докупить места на я.диске.
andrej33337, у меня там терабайт места ))))
Stek, bruder, Sujcnm,
спасибо, всё гляну ))
а ваш хост бэкапы разве не делает? чтоб самому не заморачиваться
Помню я одного такого хостера... впс-ки и бэкапы загнулись у всех клиентов насовсем окончательно и бесповоротно, разные места хранения обеспечивают бОльшую надежность сохранения данных
хост бэкапы
Хосты бэкапы делают для себя, а не для клиентов и далеко не всегда проверяют корректность их создания.
Ihory, бэкап нужен не хостеру, а владельцу/администратору сайта.
Никогда не полагайтесь на хостера в данном вопросе (чего бы он вам не обещал).
Сколько уже было случаев, горели ДЦ, сервера изымали правоохранительные органы, наворачивались диски, летела файловая система, и .т.д.
Но если у вас есть свежий бэкап (всего то нужно 1 раз все настроить и время от времени проверять), то вы себя избавляете от подобных проблем.
Есть 2 вида админов, те кто делает бэкапы и те кто пока не делает.
Как делаю сейчас... периодически tarом архив, в gzip его и курлом на яндекс диск...
Интересует, есть ли способ проще? в плане ресурсов VDS.. скажем купить где-то VDS, на него ISP а уже средствами ISP настроить бекап, чтобы тот вдс тянул с моего сайта все файлы rsyncом или ещё как-то... ну т.е. чтобы это всё на крон повесить, ибо не хочется, чтобы все файлы в один прекрасный день на *** полетели ))))
короче, можно ли реализовать бекап попроще в плане системных ресурсов?
Легко. Если ваш сайт на ВПС. Просто монтируем яндекс как davfs и rsync таки будет хорошо работать. Всё это вешается на крон. Можно даже в разные папки с разным временем.
Если сайт на шареде, то туда, конечно, яндекс диск не смонтировать. В принципе, tar поддерживает добавление изменившихся и новых файлов к архиву, если паковать без сжатия. Или даже можно просто создавать инкременту с новыми файлами.
Это должно сэкономить время и ресурсы.
Кстати, недавно писал мануал на эту тему, и там описал как раз как бэкапить сайт по ssh на винду. Можно даже по расписанию автоматически. Правда там дан пример со сжатием, то же, что у вас сейчас.