- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кстати тоже задумывался все запихнуть в вдс, чтоб снапшотить сразу все. но блин, если занято гигов 500+ , то как-то не кошерно такой "файл" тягать.
В архив запихиваем, вес меньше будет. Через pigz архивирует очень быстро.
Но нужно обязательно выставлять nice, чтобы не мешать другим процессам. Так как pigz юзает все потоки.
Делать бекап огромного количества мелких файлов намного хуже, чем бекап одного.
Так же в случае ploop snapshot -> не нужно юзать lvm.
Еще можно сделать инкрементальный бекап. Делаем vzctl snapshot, далее монтируем куда-нибудь root.hdd и выполняем бекап только тех файлов, которые изменились. http://openvz.org/Ploop/Backup
Т.е. Вы считаете, что хостер обязан следить за актуальность данных клиента, а не сам клиент?
Если бекапы для вас такая проема то вам нечего делать это бизнесе ....
P.S. каждый час беап перебор но 3-4 рааз в стуки без не помешает.
У нас есть 2 вида бекапов:
1) Пользовательский. Пользователь сам назначает что и когда ему бекапить.
2) Системный. Файлы пользователей бекапятся еженедельно. БД бекапится ежесуточно. Бекапы хранятся на основном файловом хранилище (файлы на одном сервере, базы на другом) + инкрементальное копирование бекапов на стороннюю площадку (3 недельных бекапа).
Системный бекап в квоту не входить, пользовательский входит в дисковую квоту.
В бакепе можно восстановить как отдельно БД так и отдельные файлы сайта или все сразу.
P.S. каждый час беап перебор но 3-4 рааз в стуки без не помешает.
😮 как это реализовать на шареде? и сколько тогда версий бекапа хранить? это хостинг золотой должен быть, чтоб окупиться.
😮 как это реализовать на шареде? и сколько тогда версий бекапа хранить? это хостинг золотой должен быть, чтоб окупиться.
Если снепшоты делать моментальные (например ufs и zfs позволяют такие делать), то перебор не большой.
Если бекапы для вас такая проема то вам нечего делать это бизнесе ....
P.S. каждый час беап перебор но 3-4 рааз в стуки без не помешает.
А Вы представляете сколько ресурсов сервера необходимо для таких бэкапов на шаред хостинге?
Если такое делать, то клиенты просто перестанут платить за услуги, т.к. в конечном счёте при таком кол-ве бэкапов, платить за них придётся клиентам, т.к. речь будет идти о сотнях терабайт данных, которые надо где-то хранить, а в случае другого ЦОД, ещё и об огромном трафике!
Epic fail. Онищенко пропустил через границу зараженную говядину, пол России матушки вымерло. "А я то тут причем?", отмахиваясь от журналистов как от мух, вещал он по ТВ. "Ну раз они сами не проверяют что готовят, я то тут причем?"
Логика примерно такая у вас.
У вас вот есть дети например? Вы их учили через дорогу ходить? А почему вы это делали? Думали наверное что не знают, что дорога это опасно, и там можно попасть под машину. Причем тут дети? При том что клиенты в массе своей не знают и не должны знать всех технических премудростей хостинга, как и дети, они не достаточно осведомлены. У них множество других дел и забот. Так что варианта тут два, как опять же и с детьми, либо обучать их, либо делать бэкапы (считай до старших классов ходить с ними за руку до школы).
Если отвечать по теме топика, то мы делаем бэкапы, используем r1soft (idera), храним 14 точек восстановления, на каждую из которых можно откатиться (это 2 недели от текущей даты). Копируется все на отдельную удаленную площадку, поэтому неполадки на сервере не могут повлиять на сохранность данных.
😮 как это реализовать на шареде? и сколько тогда версий бекапа хранить? это хостинг золотой должен быть, чтоб окупиться.
Для тех кто не умеет есть SAAS решения затараты АЖ 15 баков на сервер
---------- Добавлено 21.08.2013 в 17:36 ----------
А Вы представляете сколько ресурсов сервера необходимо для таких бэкапов на шаред хостинге?
Представляю :) Если хостинг без оверселинга то несущественное количество.
Если бекапы для вас такая проема то вам нечего делать это бизнесе ....
P.S. каждый час беап перебор но 3-4 рааз в стуки без не помешает.
Началось.... пятница приближается... пора похвастатся? 🍿 Будет гонять он 3/4 раза в сутки по 200 ГБ данных на сторонний датацентр. Это если мелкий сервер. А если нормальний то уже около 500 ГБ. Надо же и разум иметь, нет только огромное желание себя богатыря показать ;)
При том, какой смысл гонять 3/4 раза в сутки типично статический контент с *000000 файлов?
Ежедневный бэкап для хостинга это роскошно, но обязательно. И только rsync ( базы можно просто архивом)и только на другой сервер, желательно другой датацентр. Востановление бэкапов или платно или бонус для клиента, это уже по усмотрению, договору. (это же работа администратора, она должна оплачиватся и он должен получать чаевые ☝ )
Мне бэкапы обходятся достаточно дорого и много ресурсов на это уходит, и любой который расказывает сказки, что это всё херня, просто показывает что реально не имеет понятия о бэкапах хостингового сервера. Не говорю о бэкапах виртуальных серверов, там отдельная песьня...
Теперь о самостоятельных бэкапах, то есть чтобы клиент делал их сам. Если просто автоматические, то нет смысла в них. Клиенту стоит изредка подготавливать актуальные ручные бэкапы и сливать их себе домой или куда нибудь ещё, просто дополнительная страховка. Я не думаю, что клиент сам подготовит автоматические бэкапы лучше, чем скажем я делаю их централизованно.
На cpanel серверах делается бекап файлов четыре раза в день. Базы бекапятся каждые 2 часа. Аналогично на ispmanager сервере, но с меньшей частотой. Хранятся до 4 дней + делаем недельный архив. На удаленный сервер. cPanel клиенты имеют доступ к бекапам своих файлов их спанели, а через клиентскую поддержку, могут быть восстановлены и базы данных. В ispmanager - все через клиентскую службу. Используется Idera (r1soft) бекап с 2009 года, за это время проблем с восстановлением не было.
На фрибсзд и опенвз нодах впски бекапятся каждый день на удаленный бекап сервер. На xen и kvm (так как используется полная виртуализация), бекапы могут делаться только самими клиентами внутри ВПС. Мы со своей стороны предлагаем бекап решения для них как по технологии Idera/R1soft так и традиционное ssh/ftp хранилище.