- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите где почитать для реализации следующей задумки, если это конечно возможно.
На файловом сайте куча файлов, возможность бэкапить все это дело и сливать на железку становиться все сложнее и сложнее.
Немного подумав, пришла такая мысль в голову.
Я могу получить ссылки на все новые файлы, скажем списком
либо так
site.ru/file/new_file.zip
site.ru/file/new_file_2.zip
site.ru/file/new_file_3.zip
либо так
/home/.../file/new_file.zip
/home/.../file/new_file_2.zip
/home/.../file/new_file_3.zip
собственно это не столь важно, так как ссылки можно переделать как угодно.
Задача в следующем
К примеру есть файл .txt или .csv со списком всех новых файлов появившихся с момента последнего сканирования директории.
file.csv
Возможно ли средствами PHP перебрать массив ссылок и заархивировать их в один архив?
Т.е. интересует как создать сам обработчик и возможно ли это?
Уже разобрался =)
Скрипт в паблике видел где-то
Предлагаю следующую реализацию: раз в день скрипт бекапит только те файлы, которые были созданы или изменены в текущие сутки (то бишь, накопительный бекап). Первого и пятнадцатого числа каждого месяца делается полный бекап. В итоге, чтоб восстановиться, допустим на 18-е число, нужно распаковать архив за 15 число (полный бекап) и после этого последовательно в то же место распаковать накопительные бекапы за 16, 17 и 18 числа.
Пример реализации на bash:
Используйте duplicity — он делает инкрементальные бэкапы только изменённых файлов. Причём может шифровать их и заливать сразу на яндекс-диск. 21 век, хватит уже колхозить со скриптами бэкапа :D
спс, но я уже все сделал =)
Joker-jar, тоже норм, но я на пыхе сделал так как у меня версия 5.2 и там уже встроенный ZipArchive, пору строк кода и архивирует на ура + всякие махинации с архивом можно проводить, вобщем все то что и нужно. А файлы нужно было подготавливать по запросу, т.е. на кнопку клацнул и архив подготовился, на другую клацнул и пошла загрузка архива =)
для саморазвития очень полезно ☝