- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите где почитать для реализации следующей задумки, если это конечно возможно.
На файловом сайте куча файлов, возможность бэкапить все это дело и сливать на железку становиться все сложнее и сложнее.
Немного подумав, пришла такая мысль в голову.
Я могу получить ссылки на все новые файлы, скажем списком
либо так
site.ru/file/new_file.zip
site.ru/file/new_file_2.zip
site.ru/file/new_file_3.zip
либо так
/home/.../file/new_file.zip
/home/.../file/new_file_2.zip
/home/.../file/new_file_3.zip
собственно это не столь важно, так как ссылки можно переделать как угодно.
Задача в следующем
К примеру есть файл .txt или .csv со списком всех новых файлов появившихся с момента последнего сканирования директории.
file.csv
Возможно ли средствами PHP перебрать массив ссылок и заархивировать их в один архив?
Т.е. интересует как создать сам обработчик и возможно ли это?
Уже разобрался =)
Скрипт в паблике видел где-то
Предлагаю следующую реализацию: раз в день скрипт бекапит только те файлы, которые были созданы или изменены в текущие сутки (то бишь, накопительный бекап). Первого и пятнадцатого числа каждого месяца делается полный бекап. В итоге, чтоб восстановиться, допустим на 18-е число, нужно распаковать архив за 15 число (полный бекап) и после этого последовательно в то же место распаковать накопительные бекапы за 16, 17 и 18 числа.
Пример реализации на bash:
Используйте duplicity — он делает инкрементальные бэкапы только изменённых файлов. Причём может шифровать их и заливать сразу на яндекс-диск. 21 век, хватит уже колхозить со скриптами бэкапа :D
спс, но я уже все сделал =)
Joker-jar, тоже норм, но я на пыхе сделал так как у меня версия 5.2 и там уже встроенный ZipArchive, пору строк кода и архивирует на ура + всякие махинации с архивом можно проводить, вобщем все то что и нужно. А файлы нужно было подготавливать по запросу, т.е. на кнопку клацнул и архив подготовился, на другую клацнул и пошла загрузка архива =)
для саморазвития очень полезно ☝