- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Что там развалится, если оно будет только для синхронизации использоваться? Автору, как видно, только файл синхронизировать нужно.
А инкрементальный бэкап Ceph RBD умеет.
Что там развалится, если оно будет только для синхронизации использоваться? Автору, как видно, только файл синхронизировать нужно.
А инкрементальный бэкап Ceph RBD умеет.
Мне надо перенести большой файл с одного сервера на другой, быстро. Я это уже сделал медленно. Но технологию всё же хочу разработать - задача-то типовая.
пробовал xdelta?
https://github.com/jmacd/xdelta
PS
Я не пробовал, просто беглая гуглежка.
---------- Добавлено 18.12.2015 в 07:57 ----------
Если я правильно понял, тебе на source надо хранить старый файл,измененный файл. Из них при помощи xdelta получаешь patch. Применяешь patch на destination, получаешь измененный файл.
пробовал xdelta?
Её кто только не пробовал, но ей нужно два файла, чтобы построить разницу.
Мне сейчас приходит в голову, что в случае с образами виртуальных машин надо сделать программу, проверяющую контрольные суммы блоков, и передающую изменённые блоки. Разница по сравнению с rdiff - можно надеяться, что нет вставки в середину файла с увеличением размера. То есть можно хранить контрольные суммы для блоков и сверяться с ними при поиске обновлений. Это даже распараллелить можно.
https://github.com/egorFiNE/bigsync/ не пробовали?
Как раз хранит контрольные суммы блоков.
https://github.com/egorFiNE/bigsync/ не пробовали?
Как раз хранит контрольные суммы блоков.
Да, что-то подобное. Если бы он ещё был стандартной утилитой..
Её кто только не пробовал, но ей нужно два файла, чтобы построить разницу.
А в чем проблема на source хранить последнюю версию файла переданную на destination?