- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предположим есть пара десятков сайтов на разных хостингах, и вот захотелось иметь независимые бэкапы от хостеров.
Все сайты с БД, суммарный объем всех сайтов менее 1 ГБ, ну с учетом роста 2-3 это предел на несколько лет вперед.
Как лучше их бэкапить, с помощью специальных сервисов, или на свою VPS с помощью каких-то скриптов?
Предположим есть пара десятков сайтов на разных хостингах, и вот захотелось иметь независимые бэкапы от хостеров.
Все сайты с БД, суммарный объем всех сайтов менее 1 ГБ, ну с учетом роста 2-3 это предел на несколько лет вперед.
Как лучше их бэкапить, с помощью специальных сервисов, или на свою VPS с помощью каких-то скриптов?
Зависит от ваших навыков, возможностей, потребностей и доступных функций хостера. Есть как и специализированные сервисы типа бекаплэнда, так и готовые скрипты как для движков сайтов, и для серверов. Если данные редко изменяются, то можно и руками сбекапить. Заодно будет уверенность в целостности копии.
Можете это поручить и специально обученным людям :)
В некоторых панелях хостинга интегрирована возможность бекапов на Google диск или Dropbox.
Как вариант - где есть использовать их, где нет по описанному vadim s. sabinich способу.
Есть скрипты, которые по FTP подключаются и забирают необходимые папки.
В случае с куцыми панелями и\или ISP не позволяет делать бэкап - это ваш выбор.
А Google диску\Яндекс диску я бы бэкапы не доверял - сколько случаев потери данных, перезаписи и т.п.
А история с вайпом диска C:\ на Windows машинках кто помнит? Вайпнулся не только весь винт, но и еще сам Яндекс.Диск. Выдали всем пострадавшим по 80 гб и замяли. А сколько людей не восстановили данные - история умалчивает.
В некоторых панелях хостинга интегрирована возможность бекапов на Google диск или Dropbox.
Как вариант - где есть использовать их, где нет по описанному vadim s. sabinich способу.
В Cpanel такие опции есть?
В Cpanel такие опции есть?
На уровне пользователя - нет. Есть в ISP Business (штатная опция).
Лучший бэкап - это DVD-диски (регулярная запись на диск - и в домашний архив). Дополнительно записывать в zip-архив на флэшку (лучше на две) после обновлений/изменений сайтов.
Лучший бэкап - это DVD-диски
Уже 6 лет как не имею CD-ROM, зачем он нужен, когда есть флешки, внешний винт, облака
Уже 6 лет как не имею CD-ROM, зачем он нужен, когда есть флешки, внешний винт, облака
Когда все это накроется или случайно сотрется, поймете, зачем архивы на DVD хранят.
Вот скрипт, который берет из файла данные по базам и делает сжатые резервные копии.
Сам скрипт - файл sql.dump.sh:
#!/bin/sh
i=`date "+%Y-%m-%d_%H.%m.%s"`
backupdir=/адрес_на_сервере_до_папки_с_бекапами
mysqldump --add-drop-table --comments --complete-insert --create-options\
--password=$3 --result-file=$backupdir/$1.dump.$i.sql\
--user=$2 $1
bzip2 -9 $backupdir/$1.dump.$i.sql
И файл со списком баз - site.dump.sh:
#!/bin/sh
/адрес_на_сервере_до_папки_с_файлом/sql.dump.sh ИМЯ_БД1 ПОЛЬЗОВАТЕЛЬ_БД1 ПАРОЛЬ_БД1
/адрес_на_сервере_до_папки_с_файлом/sql.dump.sh ИМЯ_БД2 ПОЛЬЗОВАТЕЛЬ_БД2 ПАРОЛЬ_БД2
/адрес_на_сервере_до_папки_с_файлом/sql.dump.sh ИМЯ_БД3 ПОЛЬЗОВАТЕЛЬ_БД3 ПАРОЛЬ_БД3
Настраиваете по крону запуск второго файла - сутки/неделю/месяц (можно хоть каждый час). Он поочередно запускает генерацию резервной копии по этому списку. Причем можно сделать даже несколько файлов - один, например со списком баз, которые нужно резервировать раз в сутки, а второй - раз в час.
Только в файлах подставляете свои параметры (адрес на сервере до папки и данные по БД).
А потом по FTP можете забирать их из любого места, настраиваете его на эту папку.
Когда все это накроется или случайно сотрется, поймете, зачем архивы на DVD хранят.
Вечного ничего нет, та же участь может постигнуть DVD. Бекапы принято хранить как минимум в двух копиях, на разных носителях, в разных местах.