- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть файл бэкапа (~20 гигов), который нужно разрезать на 2 части и зашифровать паролем (для хранения на стороннем сервере). Сейчас делаю это с помощью rar-а (rar a -m0 -v10G). Устраивает всё, кроме времени упаковки - на бюджетном сервачке на это уходит больше часа, а если начинается внешняя нагрузка, то и несколько часов. Подскажите, как можно ускорить этот процесс?
Сделайте имитацию кусков файла скриптом на php и выкачивайте. Тут, скорее всего, проблема не в процессоре, а в ограниченности ресурсов жестких дисков на vps.
От шифрования придется отказаться в пользу пароля на стороннем сервере.
Я так полагаю, что ускорить процесс можно максимум до скорости копирования. Сколько времени занимает просто сделать копию файла, никак его не меняя?
Сделайте имитацию кусков файла скриптом на php и выкачивайте.
Не понял, что значит "имитация"? :)
а в ограниченности ресурсов жестких дисков на vps.
Сервер выделенный, но причина скорее всего в дисках - под внешней нагрузкой большая база mysql активно работает с дисками.
От шифрования придется отказаться в пользу пароля на стороннем сервере
Сторонний сервер не внушает 100% доверия.
З.Ы. Бэкап создается средствами DA. Может быть кто-то знает как можно DA подкрутить чтобы он сразу делал бэкап под паролем?
З.Ы.Ы. Знаю, что tar не поддерживает шифрование.
Kpd добавил 30.05.2009 в 12:48
Сколько времени занимает просто сделать копию файла, никак его не меняя?
Хз, не замерял. Ночью проверю. Наверняка меньше, чем архивирование.
зависит от специфики на каждом из серверов.
или же скрипт на php анализирует заголовки и начинает медленно и печально перекачивать файл. или чуть более надежная вариация решения - раздаете обычным вебсервером, а принимающий скрипт указывает с какой позиции качать.
кстати на этом же сервере и шифруйте. ему все равно эти данные записывать.
раз уж вы не можете отдельный винт для бекапа поставить, ценность информации сомнительна.
openssl enc -aes-256-cbc -salt -in file -out file.enc
openssl enc -d -aes-256-cbc -salt -in file.enc -out file
раз уж вы не можете отдельный винт для бекапа поставить, ценность информации сомнительна.
А смысл хранить бэкап на том же сервере? Специально взял хостинг для бэкапов в другом датацентре, чтобы минимизировать риск.
openssl enc -aes-256-cbc -salt -in file -out file.enc
openssl enc -d -aes-256-cbc -salt -in file.enc -out file
Спасибо, погуглю на эту тему.
Kpd, так когда винт для записи не занят работой, бекап будет куда быстрее происходить. а потом уже скопируете в фоновом режиме куда угодно
Kpd, так когда винт для записи не занят работой, бекап будет куда быстрее происходить. а потом уже скопируете в фоновом режиме куда угодно
Согласен, в этом есть смысл. Наверное, так и поступлю, если не получится с openssl
Хз, не замерял. Ночью проверю. Наверняка меньше, чем архивирование.
Не факт. При зиповании - меньше. После архивирования объём записываемых данных в разы меньше, а это самое узкое место.
Не факт. При зиповании - меньше. После архивирования объём записываемых данных в разы меньше, а это самое узкое место.
Архивируется архив tar (его DA создает штатными средствами по расписанию), поэтому объём практически не меняется.