- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Арендую выделенный сервер у крупного хостера. Резервная копия моего сервера весит 45 Гб. Для того чтобы иметь только 1 копию на удаленном ftp, нужно чтобы на удаленном ftp было в 2 раза больше места (для нормального завершения копирования), то есть 100 Гб. Лимит предоставляемый на DS хостером под резервную копию на удаленном ftp - 100 Гб. И за эти 100 Гб на удаленном ftp я плачу еще 50 евр в месяц. (Это если наращивать объемы проекта то на дисковом пространстве на удаленном ftp только разоришься, при дешевизне то дискового пространства вообще).
Это получается всего-то 45 Гб и я уперся в возможности услуги "выделенный сервер" у хостера. А зачем тогда все эти характеристики в линейке их серверов на их витрине с дисками по 5 Тб и прочее. Куда и как их резервировать то эти 5 Тб ?
Вот и вопрос. Как живут чуть бОльшие сайты (серверы) чем у меня, как "резервируют" себя. Думаю что стандартная услуга "выделенный сервер" им не подходит. Как они тогда делают? Большое спасибо.
За стоимость сервера вам дается сервер, с обозначенными параметрами. Место под бэкап (в основном не значительный объем от объема hdd вашего сервера) дается в подарок, или с целью прорекламировать что у нас вы сможете покупать еще и место под бэкап.
Резервируйте где хотите, это не задача хостера, если данный аспект явно не прописан в договоре.
нужно чтобы на удаленном ftp было в 2 раза больше места (для нормального завершения копирования), то есть 100 Гб. я плачу еще 50 евр в месяц.
Используйте duplicity, он обеспечит инкрементальный (т.е. только изменившиеся файлы сайта) бэкап со сжатием (что потребует меньше места) с шифрованием (чтобы хостер бэкапа не мог им воспользоваться) и лейте этой программой бэкап на Amazon S3 "Glacier Storage" это обойдется в ОДИН бакс* за 100 Гб.
*На самом деле нет, но меньше $10 ("Standard Storage"), т.к. у них довольно причудливая система расчётов.
Все просто. Берете второй сервер с объемом винтов в раз 5 больше чем ваш используемый объем. Брать лучше тамже, чтоб канал быль локальным гигабитным. И бекапиться сколько угодно.
Все просто. Берете второй сервер с объемом винтов в раз 5 больше чем ваш используемый объем. Брать лучше тамже, чтоб канал быль локальным гигабитным. И бекапиться сколько угодно.
Да, напрашивается такое решение. А сами хостеры для серверов предназначенных для хранения бэкапов, используют какие-то особенные сервера? Например какие-нибудь супер-надежные диски, собранные по супер-надежной зеркалированной схеме. А как вы думаете, они сами сервера, хранящие бэкапы, еще дублируют? То есть нужно будет по-возможности воспроизвести систему бэкапирования хостера своими средствами.
Сами сайты у меня на хетзнер, а резервируем через duplicity на облачное хранилище селектел. За 75 гб плачу 3-5 рублей в день (не помню точно, но могу уточнить)
Используйте duplicity, он обеспечит инкрементальный (т.е. только изменившиеся файлы сайта) бэкап со сжатием (что потребует меньше места) с шифрованием (чтобы хостер бэкапа не мог им воспользоваться) и лейте этой программой бэкап на Amazon S3 "Glacier Storage" это обойдется в ОДИН бакс* за 100 Гб.
Алгоритм rsync подразумевает доступ к обоим файлам одновременно чтобы их можно было сравнить, а amazon glacier этого не позволяет. (Хотя rsync не единственный способ сделать инкрементальный бекап)
Схема расчетов для таких объемов будет выгодна клиентам пользующимся другими сервисами Amazon типа EC2. При восстановлении на EC2 трафик не считается. В остальных случаях бекап не только придется подождать, но и оплатить исходящий трафик в размере этого бекапа.
Например какие-нибудь супер-надежные диски, собранные по супер-надежной зеркалированной схеме.
судя по условиям amazon glacier - это ленточное хранилище и детский труд :)
Как понять инкрементальный бэкап, при первом резервном копировании скопируется вся резервная копия полностью, а при последующих бэкапах будут перезаписываться (добавляться) только измененные и новые файлы, таким образом на удаленном ftp будет храниться полная актуальная резервная копия. Так?
---------- Добавлено 19.07.2013 в 10:06 ----------
Сами сайты у меня на хетзнер, а резервируем через duplicity на облачное хранилище селектел. За 75 гб плачу 3-5 рублей в день (не помню точно, но могу уточнить)
в случае если придется восстанавливать данные с бэкапа, сколько времени будут пересылаться эти 75 Гб из хранилища, которое не там же где хостер
Да, напрашивается такое решение. А сами хостеры для серверов предназначенных для хранения бэкапов, используют какие-то особенные сервера? Например какие-нибудь супер-надежные диски, собранные по супер-надежной зеркалированной схеме. А как вы думаете, они сами сервера, хранящие бэкапы, еще дублируют?
вряд ли...
использовать можно что угодно, вопрос зависит от бюджета...
супер-надежные диски - raid.
и вряд ли одновременно выйдут из строя бекап-сервер и продакшн...
---------- Добавлено 19.07.2013 в 07:42 ----------
что входит в эти 45 гб? редко изменяющийся контент? инкрементальные бекапы помогут отцу русской демократии...
Действительно большие проекты держали на двух сервера в разных датацентрах (для большей надежности). Для разносной синхронизации исползовали rsync.
Как понять инкрементальный бэкап, при первом резервном копировании скопируется вся резервная копия полностью, а при последующих бэкапах будут перезаписываться (добавляться) только измененные и новые файлы, таким образом на удаленном ftp будет храниться полная актуальная резервная копия. Так?
Да, AlenDelan, именно так.
в случае если придется восстанавливать данные с бэкапа, сколько времени будут пересылаться эти 75 Гб из хранилища, которое не там же где хостер
При таком подходе, в случае аварии, ничего пересылать не нужно. На сервере, где бекап, поднимаем сайт, переключаем на него в ДНС и все дела. То есть, время восстановления будет определяться временем обновления ДНС.
Кста, по ftp тоже можно делать инкрементные бекапы: http://muremba.com/index.php?n=Linux.Lftp
---
Victor
Алгоритм rsync подразумевает доступ к обоим файлам одновременно чтобы их можно было сравнить, а amazon glacier этого не позволяет.
Это так, поэтому я и приписал сноску. Потребуется еще немного обычного Standard Storage, и скрипт который переносит с Standard Storage в Glacier по мере формирования файлов дампа. Это уже автоматизировано патчем на duplicity, погуглите duplicity+glacier+amazon.
Если лень заморачиваться, то даже тупо Standard Storage в 5 раз дешевле чем ТС платит сейчас.