- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Некоторое время назад довелось переносить сайты на новые сервера из-за исчерпания квот на предыдущем хостинг-плане. На хостинге есть back-up (вроде) + суппорт кое-как объяснил, как перекопировать сайты в архив с помощью SSH и распаковать на новом сервере. Но в итоге с помощью серча опять же был найден вариант, когда сайты были просто напрямую перекопированы с одного сервера на другой (в SSH оказался встроенный FTP-клиент или что-то типа этого).
Сейчас возник вопрос о том, что на всякий случай при себе желательно иметь более-менее свежую копию сайта, которая бы находилась в надежном месте.
Всегда возможны различные форс-мажоры: серверы хостера могут сгореть, их могут арестовать на неопределенное время, их могут отключить от электричества, в конце концов хостера могут просто хакнуть, заразить вирусами файлы, что замучаешься вычищать, а и то вообще уничтожить все содержимое серверов.
Учитывая то, какую сайты представляют ценность, особенно если работа над ними ведется много лет, то важно обеспечить сохранность собственных трудов. Потому что восстанавливать все с нуля или даже не совсем с нуля может не хватить моральных, физических, финансовых сил. Я, напр., после того, как накрылась моя личная страница на перс. компе так ее и не восстановил. А к Java, которая у меня тогда стояла и на которой я пробовал программить, больше не возвращался.
На backup хостера, как показывает практика, тоже лучше не надеяться. Потому что не раз встречал на форумах сообщения, что хостер не забекапил сайт как обещал, или что забекапленная версия оказалась слишком старой, очень много потеряно.
Пока вариант, который видится - это по вышеописанному способу - просто сохранять в архив. И потом куда-то этот архив побыстрее пересылать. Либо на альтернативный хостинг (который может быть предназначен исключительно для того, чтобы этот файл хранить), либо на домашний компьютер (если есть уверенность, что с компом, как и с сервером, ничего не случится). А вот можно ли это все автоматизировать и как вообще лучше все-таки сделать?
Объемы сайтов в Мб/Гб если измерять, то небольшие (нет видео, БД и т.п.), много статичных страниц, много различных скриптов (Perl и т.п.), которые рулят содержимым, форумами и т.п. Поэтому больших ресурсов для сохранения и копирования не требуется. И дорогих решений не нужно. Важна простота, надежность, сохранность, независимость, чтобы обеспечивалась возможность быстрого восстановления сайта из сохраненной копии на новом хостинге, чтобы при этом сохранялись даты файлов и версия сайта была более-менее свежая, а не недельной давности.
в большинстве панелей управления хостингом есть функция создания бекапа, чтоб переливал на удаленный фтп. повесить на крон и проблема решена :)
Independence, по мимо того что сказал foxi, еще есть множество простых скриптов, в которых уже просто надо указать директории какие положить в бекап, а так же указать HOST куда надо их залить.... Это о главном :)
Но я поддерживаю всегда концепции производителей, по этому как опять же сказал foxi, в каждой панели практически есть функция бекапа акаунта, её и стоит пользоваться при условии что у вас есть панель управелния :D А дальше переливать данные копии на какие-то другие сервера или домашний ПК, а что бы вообще все было хорошо раз в недельку записывайте этот бекап дома на CD обычный, гемора - 5 минут, зато болванка есть и на ней есть сайт уже точно. (Воздействовать на ваш CD ни кто не сможет, после того как завершена запись :D)
Если же у вас нет панели управления, можно придумать простой скрипт на bash / perl который соберет в .tar.gz все необходимые файлы \ базы и потом по FTP / SSH зальет на альтернативные хостинги или даже к вам домой .
А с точки хранения хранения данных как таковых , убеждайтесь что провайдер использует RAID технологии, и не забывайте делать бекапы сами, хотя бы иногда, для собственной безопасности.
Bash и Perl скриптов готовых кстати есть немало.
Сам пользуюсь самописным скриптом на bash, основной контент сайтов бекаплю полностью ежедневно, а статические файлы (картинки,архивы) инкрементный, чтоб на бекапном сервере не занимало лишнего места и сеть не забивать гигабайтами одних и тех же данных.
Bash и Perl скриптов готовых кстати есть немало.
Сам пользуюсь самописным скриптом на bash, основной контент сайтов бекаплю полностью ежедневно, а статические файлы (картинки,архивы) инкрементный, чтоб на бекапном сервере не занимало лишнего места и сеть не забивать гигабайтами одних и тех же данных.
Вы знаете, я долго думал между разницей в инкременте и полном бекапе и знаете я пришел к выводу после тестирования , что лучше хранить 10 одинаковых копий, чем 10 инкрементных слепков зависящих друг от друга, конечно с точки зрения продуктивности и целесообразности звучит весьма слабо, но вот в тот момент когда человек хочет получить бекап - я понял что лучше иметь один файл в котором за конкретную дату есть все что надо клиенту, чем искать возможные изменения во всех копиях и собирать это все дело в кучу.
Чистое IMHO.
Romka_Kharkov, смотря какие данные нужно бекапить и из типа данных исходить в способе резервного копирования.
Если это файловый архив общим размером много гигов, то полностью не набекапишь, это будет и дорого и затратно по ресурсам и времени.
Потому такие данные я предпочитаю бекапить по схеме:
раз в неделю полный бекап + остальные 6 дней инкрементный.
и архивация чисто в .tar, чтоб на случай повреждения архива можно было быстро и безгиморойно восстановить максимум данных.
На backup хостера, как показывает практика, тоже лучше не надеяться. Потому что не раз встречал на форумах сообщения, что хостер не забекапил сайт как обещал, или что забекапленная версия оказалась слишком старой, очень много потеряно.
Не пользуйтесь говнохостингами "васей пупкиных". В серьезных хостинговых конторах "не забекапил" не бывает - в оферте обычно написано как часто и что именно бекапится.
Что касается "слишком старой" - это смотря как Ваши данные меняются. Если слишком часто для расписания бекапа хостера - делайте свой, по крону.
А вот можно ли это все автоматизировать и как вообще лучше все-таки сделать?
fsbackup. Умеет лить на удаленный FTP или SSH. Умеет запускать скрипты для бекапа баз данных. Думаю, все что Вам нужно. Запускайте его с нужным расписанием, вот и все.
что лучше хранить 10 одинаковых копий, чем 10 инкрементных слепков зависящих друг от друга
Когда у Вас один инкремент занимает пару гигабайтов, а полная копия под терабайт - Вы точно поймете, что это далеко не "лучше". А на самом деле, поймете куда раньше...
но вот в тот момент когда человек хочет получить бекап - я понял что лучше иметь один файл в котором за конкретную дату есть все что надо клиенту, чем искать возможные изменения во всех копиях и собирать это все дело в кучу.
Это вопрос использования скриптов для управления содержимым бекапа. Пользуетесь поделкой очередного криворукого "одмина" - тот запросто о таких вещах вообще мог и не подумать. Вагон готовых нормальных решений для бекапа, где все это предусмотрено.
Когда у Вас один инкремент занимает пару гигабайтов, а полная копия под терабайт - Вы точно поймете, что это далеко не "лучше". А на самом деле, поймете куда раньше...
Это вопрос использования скриптов для управления содержимым бекапа. Пользуетесь поделкой очередного криворукого "одмина" - тот запросто о таких вещах вообще мог и не подумать. Вагон готовых нормальных решений для бекапа, где все это предусмотрено.
Это не вы там случайно в соседней теме про велосипед рассказывали , который не летает и не стреляет :D? Какие терабайты, от ТС-а почитайте вопрос, синдром?:) "Вагон готовых решений" это типа по теме ТС-у помочь должно как-то? Хватит флеймить уважаемый.
ТС, а откуда вы планируете бекап делать, что на том сервере? Какая-то панель? или что?
"Вагон готовых решений" это типа по теме ТС-у помочь должно как-то?
Должно помочь конкретное решение, которое я предложил (кстати, из этого самого "вагона"). Вы не умеете читать - так может другие умеют?
я понял что лучше иметь один файл в котором за конкретную дату есть все что надо клиенту, чем искать возможные изменения во всех копиях и собирать это все дело в кучу.
Для того чтоб не собирать в кучу есть хардлинки. Получается и полный снимок в конкретной папке и место не тратится в пустую.
Да и, чуть ли не самое главное, - скорость бекапа возрастает в разы при инкрементном (и трафик падает соответственно)
Должно помочь конкретное решение, которое я предложил (кстати, из этого самого "вагона"). Вы не умеете читать - так может другие умеют?
Насколько помню, у fsbackup-a есть нехороший нюанс. Когда указано, например, делать в неделю один фулл и 6 инкрементов, то, чтобы достать что-то из инкремента №4, надо распаковать фулл и первые 3. Для мелких бекапов некритично, но на больших распаковка проходит медленно и печально.
Могу, конечно, плохо помнить - история была года 3 назад, с тех пор пользую другой софт для этих задач.