- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, уважаемые, как решаете подобные задачи. Есть сайт с объемом базы MySQL в 5 гигов, объёмом контента под 70 гигов, и скоростью роста этого хозяйства порядка 5 гигов в месяц.
В настоящий момент бекап реализован стандартным образом - делается дамп MySQL, архивируется RARом, так же RARом архивируется контент и скачивается на локальный сервер.
Проблема в том что уже сейчас это занимает 7-8 часов времени + 3 часа на скачивание бекапа и довольно сильно нагружает сервер. Через год-другой бекап за сутки просто будет сделать невозможно.
Делать инкрементальные бекапы пока не сподобился, т.к. во-первых, руками это гораздо сложнее правильно организовать, во-вторых, в случае чего развернуть гораздо дольше, в-третьих, для инкрементального всё равно нужен базовый полный бекап хотя бы ежемесячно.
Вопросы: как решаются подобные проблемы? Какой есть софт с плюсами и минусами? Как насчёт мультиплатформ (сам сайт лежит на UBUNTU, а на домашнем сервере, где идет разработка и куда сохраняются данные, Windows)?
Если нет необходимости иметь несколько бекапов разного возраста, то можно "синхронизировать" копии, например, через rsync. Ну, или как вариант (просто пришел в голову, на практике не сталкивался), делать копию сразу при добавлении контента.
У меня выделенный сервер. 4Гб ОЗУ, проц не помню, но не самый мощный. Стоимость сервера 59$ в месяц. Делает бэкап примерно такие же, хотя наверное даже больше по сумме всех сайтов. И ничего, нормально справляется.
Doroshev, нормально справляется за какое время? И на работе сайтов это не отражается?
У меня подтормаживает, а с учётом того, что через какое-то время объём контента увеличится вдвое, решения принимать нужно уже сейчас. Не хочу оказаться припёртым к стенке обстоятельствами.
Разнести как вариант mysql базу и файлы сайта на разные сервера.
Бэкапьте отдельно.
набрать на хетзнере дешёвых серверов, по паре(или больше) на каждый сервис. mysql -> master-slave, content - > rsync. в случае пушного зверька просто переключаем на рабочий сервер. на 2. уровне можно устроить load balancing, чтобы "бэкап" сервер не простаивал впустую
базу бекапить как и сейчас - делать дамп, архивировать и перекидывать на другую машину, тут особо ничего не придумаешь. файлы рсинком инкрементно.
Разнести как вариант mysql базу и файлы сайта на разные сервера.
Бэкапьте отдельно.
Ну это денег стоит, кроме того почти ничего не даёт. База меньше контента на порядок. И бекапится за приемлемое время.
набрать на хетзнере дешёвых серверов, по паре(или больше) на каждый сервис. mysql -> master-slave, content - > rsync. в случае пушного зверька просто переключаем на рабочий сервер. на 2. уровне можно устроить load balancing, чтобы "бэкап" сервер не простаивал впустую
Ишь ты, профессор! Сколько непонятных слов. 😂
А не подскажите, rsync на сервере установленный много ресурсов требует? Не нашёл про него ничего в этом плане. Везде только описание как настраивать. Ведь если он постоянно сканит диски на предмет наличия новых/изменённых/удалённых файлов, это должно отражаться на общей производительности сервера?
Tvolod, рсинк штука не жрущая. и работает он только тогда, когда вы его запускаете.
Tvolod Как вариант... можно поставить второй диск в RAID и зеркалировать.
А бекапы на другой фтп (если понадобятся) делать с меньшей периодичностью.
Еще:
- разделить бекап бд и файлов по времени.
- делать бекапы ночью... когда сервер менее загружен.
- Уменьшить степень сжатия или вовсе убрать архивирование. Прилично снизит нагрузку.