- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите как лучше делать инкрементальный бэкап данных. А то мои полные бэкапы доросли до 10ГБ...
Вроде бы как-то tar'ом можно делать, но вот только как? Может у кого готовый скриптик есть?
Подскажите как лучше делать инкрементальный бэкап данных. А то мои полные бэкапы доросли до 10ГБ...
Вроде бы как-то tar'ом можно делать, но вот только как? Может у кого готовый скриптик есть?
Я использую duplicity. Еженедельный полный бекап и ежедневный инкрементный.
Размер полного бекапа сейчас в районе 90гб. он делается около 5 часов. Инкрементальный давольно шустро, минут 20-30.
( это время с учетом заливки по фтп на другой сервер )
Я использую duplicity.
Спасибо! шикарный вариант! Просто и эффективно!
http://www.opennet.ru/dev/fsbackup/ использую. Единственный минус, для криптования использует PGP , а мне aes больше приятен.
А есть инструменты для инкрементированного бэкапа базы данных
fsbackup, rsnapshot
rdiff-backup
Впервые о таком слышу :) Имхо не реально, разве что средствами самой базы данных по логам изменений.
Впервые о таком слышу :) Имхо не реально, разве что средствами самой базы данных по логам изменений.
"Разве что"? :) Это и есть - бинарные логи (MySQL).
да разницы то как назвать, не совсем бакап это, насколько помню это больше для синхронизации баз данных предназначено, или для восстановления в случае падения.
Хотя фиг знает, до инкрементального бакапа базы как то дело не доходило, выгоднее сразу все бакапить :)