- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Надо же и разум иметь, нет только огромное желание себя богатыря показать ;)
Разум надо иметь всегда: есть такое изобретения человечества как инкрементный бекап. И еще раз есть навалом софта который этим управляет БЕСПЛАТНО надо тока иметь разум его поставить/настроить.
Бекап ресурсоёмкая штука. Когда на компе много файлов и ещё что-то делаешь ощущаются тормоза поэтому бекапы делать времени занимает не мало. Нужно хостерам делать бекапы клиентов и свои где-то раз в неделю, но чтобы точно это было сделано.
Помню на park-web.ru не было проблемы с бэкапами.
Sypex Dumper юзать и качать базу в архиве похоже многим пользователям лень хотя бы раз в неделю. Не забыв запаковать на сервере папку сайта в tar.
Ежедневный бекап с хостера не стоит требовать, пусть с недельным бекапом справится хостер. Падения серверов не каждый день происходят.
---------- Добавлено 21.08.2013 в 20:51 ----------
инкрементный бекап
Такое есть вроде у ht-systems.ru
Когда пользователи делают сам это не ресурсоемкое - а когда хостре это какпец как ? - не позоритесь наймите нормальных админв :)))
Инкрементный бэкап стоит у всех адекватных хостеров, это и быстрее и менее ресурсоемко.
Инкрементный бэкап стоит у всех адекватных хостеров, это и быстрее и менее ресурсоемко.
у неадекватных не стоит?
у меня например новые сервера на ssd, там вообще пофиг на нагрузку от процесса бэкапирования.
Инкрементный конечно хорошо, но и без него жить можно, раньше хотел сделать а теперь нафиг он нужен думаю.
Я хоть шаред уже и закрыл, но таки отпишусь.
Бэкапы создавал своими скриптами, без использования панелей. Все автоматизировано. Раз в сутки запускался скрипт, копировал файлы на удаленный сервер, в другом ДЦ. А уже на бэкап сервере создавались архивы tar.xz. Хранилось 30 копий (30 дней), каждые в своей папочке (имя=дата).
Дампы баз создавались уже на рабочем сервере и переносились готовые на бэкап сервер. Так же 30 дней. Развернуть любой минута дела. Все просто, никакой нагрузки и быстро. И самое главное - никаких косяков от рез. копий созданных панелями.
На cpanel серверах делается бекап файлов четыре раза в день.
У меня микро маленький cPanel хостинговый сервер, около 45 ГБ полезных данных на сервере, чисто данных на резервном хранилище 34 GB (www не зжатые), cpanel rsync бэкап длится ~6 часов на удаленнoe nfs хранилище в другом датацентре. Канал между серверами 500 мбпс, на сервере SSD (Intel SSD DC S3500 ) , процесор E-1650. Уточните какой обьём файлов у вас на cpanel серверах и какой канал, диски, если вам удаётся получить такие космические возможности ;) Если сервер данных имел бы около 200 ГБ, думаю я за сутки смог бы его синхронизировать без особых усилий, если довести до 500 ГБ, то мне пришлось бы серьёзно поработать мозгами....
Разум надо иметь всегда: есть такое изобретения человечества как инкрементный бекап. И еще раз есть навалом софта который этим управляет БЕСПЛАТНО надо тока иметь разум его поставить/настроить.
Может Вы всем расскажете, как это делалось на Вашем хостинге?
А то кроме понтов и флуда ни чего не увидел!!!
понравилась тема, решил то же отписаться.
Основной системы было распределенное через 2 ДЦ сетевое хранилище (опция репликации через оба дата центра и sla доступности 99.999) основанное на zfs с компресией.
Делали копии всех виртуалок c различной периодикой, на дедиках в зависимости от желания клиента, зачастую просто выделяли место с доступом по различным протоколам включая scsi, samba, sftp
Работали в основном со снепшотами lvm и zfs, для баз данных использовали клиентов.
Кому нужно подобный бекап, можем организовать, цены более чем демократические в своем классе. 🍿
У меня микро маленький cPanel хостинговый сервер, около 45 ГБ полезных данных на сервере, чисто данных на резервном хранилище 34 GB (www не зжатые), cpanel rsync бэкап длится ~6 часов на удаленнoe nfs хранилище в другом датацентре. Канал между серверами 500 мбпс, на сервере SSD (Intel SSD DC S3500 ) , процесор E-1650. Уточните какой обьём файлов у вас на cpanel серверах и какой канал, диски, если вам удаётся получить такие космические возможности ;) Если сервер данных имел бы около 200 ГБ, думаю я за сутки смог бы его синхронизировать без особых усилий, если довести до 500 ГБ, то мне пришлось бы серьёзно поработать мозгами....
А нет там никакого космоса. Самый первый снимок делается те же 6 часов или больше (не считали, там спешки нету, главное чтобы бекап сделался без ошибок), так как гонялось по порту 100 мбпс притом еще и не выделенному. А последующие снимки - это инкрементальные снимки и им цена - 500Мь - 1-2 Гбт. Если понадобится восстановить несколько файлов, директорий потребуется несколько минут на это (ну + время на передачу данных. так как если например похерили 1 гиг, его все же придется передавать по сети полностью).
Вот если похерили диск целиком, тогда придется восстанавливать дольше так как время примерно так затрачивается - время потраченное на бекап + время на отслеживание изменений + восстановление + перекачка данных по сети). С другой стороны, в 3 версии можно перенести disk_safe непосредственно на восстанавливаемый сервер и там восстановление сделать. Получится быстрее за счет отсутствия необходимости перекачки и проверки всех данных по сети. Раза в 2 быстрее. Но это если для серверов целиком.
Бекапятся только данные, воздух не бекапится. Поэтому если занято на диске 100 гигов - примерно 120 -150 гигабайт понадобится, чтобы хранить до 7-14 снимков. На хостинге эта технология вполне себя оправдывает. В случае наступления эпик фейла - форматится сервер, копируется disk_safe (это в чем CDP сервер держит всю инфу о бекапе конкретного сервера) на второй диск, устанавливается CDP сервер и начинается восстановление данных. В результате имеем полностью идентичный диск тому, что был перед фейлом, со всеми настройками, данными и т.п. Но, это конечно за 5 минут не получится сделать.
PS. Диски обычные сата везде с рейдами 1 или 10. По количеству данных - у нас примерно столько же на каждый сервер, так как не обещаем безлимитов и т.п.