- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Оптимизайка, мне и так хорошо без гугла и питоновских поделок.
А вот значительную цену трафика, за который придется заплатить при восстановлении, нельзя так просто замалчивать.
AlenDelan, все бросились излагать решения, но ни кто не удосужился пояснить суть.. увы.... изначально я бы рекомендовал вам определится что именно у вас находится внутри этих 45 GB информации. Есть информация которая носит перво очередной характер или второстепенный. Есть информация которую НУЖНО бекапить каждый день, а есть информация которую МОЖНО бекапить раз в неделю. Есть файлы которые имеет смысл бекапить, есть файлы которые не имеет...
К примеру: Если у вас там из 45GB 40 заворачивается в виде .AVI то лучшим решением будет закатать эти 40 GB AVI на 10 DVD болванок положив дома и исключить их из регулярного бекапа. В случае потери этих файлов вы сможете восстановить их из локальной копии дисков к примеру. Либо достаточно было бы хранить 1 копию на соседнем сервере (что по сути то же самое почти что и DVD)
Так что начните с начала, подумайте, все ли у вас бекапится рационально !
P.S: У меня есть мини-сторедж 2 TRB данных, там вполне отлично бекапится еженедельно около 400-500 GB !!! С ротацией. Все в норме :)
из 45 Гб у меня ежедневно могут быть изменены 10% данных, хоть с какого конца, и примерно 3% от всего объема добавляется новых ежедневно. То есть получается весь объем данных "дышит". Наверное такого термина к данным еще никто не употреблял).
AlenDelan, Ну есть же статическая часть ? Тот же rsync позволяет вести списки исключений по маске файлов и списку путей, чтобы не бекапить лишнего.
из 45 Гб у меня ежедневно могут быть изменены 10% данных, хоть с какого конца, и примерно 3% от всего объема добавляется новых ежедневно. То есть получается весь объем данных "дышит". Наверное такого термина к данным еще никто не употреблял).
10% + 3% как-то ниразу не весь объем данных )))
AlenDelan, Ну есть же статическая часть ? Тот же rsync позволяет вести списки исключений по маске файлов и списку путей, чтобы не бекапить лишнего.
статическая часть очень мала получается, только программные файлы.
---------- Добавлено 20.07.2013 в 18:21 ----------
10% + 3% как-то ниразу не весь объем данных )))
я просто отвечал на вопрос Ромки_Харькова, он предлагал на болванки бэкапить совсем статические данные, я ему отвечал что 10% каких данных из 45 Гб могут быть изменены за день - неизвестно.
я просто отвечал на вопрос Ромки_Харькова, он предлагал на болванки бэкапить совсем статические данные, я ему отвечал что 10% каких данных из 45 Гб могут быть изменены за день - неизвестно.
Вы знаете я даже в очень сложных случаях находил то , что можно бекапить отдельно от "основного", но раз все так как вы говорите, то сворачивайте все в тарбол 1 и заливайте туда где места хватит... собственно чего уж тут.... Инкрементные бекапы как концепция - вообще супер, но я лично сталкивался с разным софтом , а точнее с проблемами при работе с ним, то восстановить не получается, то какие-то промежуточные данные отсутствуют, надо искать "систему" резервного копирования, скорее всего за $$.