- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Раз в неделю бэкапится с помощью xtrabackup + pigz и заливается в облачное хранилище Селектела (под 200Мбит/сек).
Сколько у вас оперативы свободно на сервере?
Базы данных также делаем, только пакуем с помощью xbstream.
Заливали даже тоже на selectel :)
Свободно порядка 6-8 гб (используются под дисковые кеш)
---------- Добавлено 15.09.2013 в 15:24 ----------
Есть. R1soft (Idera).
На крайний случай, Vembu или bacula4hosts.
Спасибо, посмотрим
---------- Добавлено 15.09.2013 в 15:34 ----------
Евгений Русаченко, не так давно были обсуждения на эту тему хостеров. полистайте.
Поискал по backup, бэкап, резервное копирование - не нашел тем подобных :(
rsync
tar
далее фантазия
--------------------
У нас таким образом все работало на шареде. Первый бэкап долгий, остальное мелочи - около часа и готово.
Все автоматизируется скриптиком из нескольких строк всего. Бесплатно и сердито. LA никогда не поднимался выше 1.
Ну а если базы огромные то лучше ssd нету ничего в этом плане.
rsync
tar
далее фантазия
--------------------
У нас таким образом все работало на шареде. Первый бэкап долгий, остальное мелочи - около часа и готово.
Все автоматизируется скриптиком из нескольких строк всего. Бесплатно и сердито. LA никогда не поднимался выше 1.
Ну а если базы огромные то лучше ssd нету ничего в этом плане.
Базы у нас на SSD уже давно. Хоть и небольшие вроде. Делаем копии с xtrabackup - очень хорошая штука + мониторим состояние SSD, чтобы менять заранее, до того момента, когда цикл перезаписи закончится.
А вот как делать копии клиентов - это отдельная история. Так как надо сохранить возможность их восстановления через панель, надо посмотреть возможность копирования только конфигов пользователей в панели, а их домашние каталоги уже самостоятельно копировать, а базы данных - как уже делали.
Если у вас сипанель то idera лучший выход, есть интеграция для сипанели.
Т.е. готовое решение.
Если у вас сипанель то idera лучший выход, есть интеграция для сипанели.
Т.е. готовое решение.
Для ISPmanager тоже.
Да и для любой другой не проблема сделать если надо.
---------- Добавлено 15.09.2013 в 19:34 ----------
С tar rsync все ок, до тех пор пока размеры нормальные. А с каждым годом или не месяцем размеры сайтов растут непропорционально увеличению скорости дисковых систем.
Для ISPmanager тоже.
Не знал, так как давно не пользуюсь r1soft.
Да и для любой другой не проблема сделать если надо.
Сделать можно что угодно =) Но полагаю ТС рассматривает только готовые решения или легко(или быстро) создаваемые. Написание своих плагинов не всегда и не для всех быстрый и простой выход.
---------- Добавлено 15.09.2013 в 21:17 ----------
С tar rsync все ок, до тех пор пока размеры нормальные. А с каждым годом или не месяцем размеры сайтов растут непропорционально увеличению скорости дисковых систем.
К сожалению такой тенденции не заметил. 30 копий архивов по каждому аккаунту легко размещаются для пол тысячи клиентов на средненьком сервере. Ну разумеется что хостер не специфический, где мин аккаунт 10 гиг.
Евгений Русаченко, вы - хостер? я бы поостерегся делать бакапы клиентов. по крайней мере - писать об этом в оферте, или у вас есть мощности, гарантирующие сохранение данных? уже не один хостер "влетал" с этой проблемой. от гигантов, до местячковых. одно дело, если вы это предлагаете в качестве доброй воли, другое дело - елси гарантируете. на мой взгляд - хостер должен предоставлять инструментарий для создания резервных копий, но(!!!) ни в коем случае не делать их сам. например тот же хецнер: 100гб на дедик на халяву, выше - за деньги, и досвидос. поверьте , те 1-40$ , которые вам платит клиент - слишком маленькая цена в десятки раз, что бы отвечать за его данные, но это я отвлекся.
если вы хостер - правильно, на мой взгляд - сделать так:
- дамп баз с ключем -A - раз в неделю
- инкрементальный дамп баз каждый день
- полный бакап файлов раз в неделю
- инкрементальный бакап файлов каждый день
- (!!!) не бакпить каталоги, в которых более 10000 файлов, не бакапить файлы размером больше 100мбайт
- не сжимать avi, mpg,mp4 и т д, то,что не жмется.
- убрать из оферты ответственноть за бакапы
директадмин позволяет написание своих скриптов, дефолтная их бакапилка под пожелания выше - не подходит, возможно в taskq можно будет засунуть свой скрипт бакапа......... не знаю,на глубоком уровне архитектуры - не знаком с ДА.
- еще пожелание - не жмите все подряд. тотальный gzip - зло.
за много лет практика показала - что лучше самописных скриптов - нет ничего, ну или дорогостоящие системы резервного копирования, которые работают на дорогом оборудовании.
- полный бакап файлов раз в неделю
- инкрементальный бакап файлов каждый день
Зачем? Второе волностью покрывает первое. Или вы недоверяете своим бекапам?
pupseg, для такого подхода rsync && tar (ну или аналоги) самое то. Весь функционал для описанной фильтрации имеется.
Еще можно делать бекапы снэпшотами, если файловая система поддерживает...