- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация такая, есть интернет магазин, на хостинге залито ~100к изображений. В настоящее время используется около ~3к. Магазин давний, товары добавлялись\удалялись - картинки остались.
В связи с тем. что они занимают много места, нужно удалить ненужные. Есть файл .txt со списком имен файлов, которые нужны.
Какие могут быть средства для удаления всех файлов кроме тех, которые есть в списке?
Все это происходит на обычном хостинге, доступа к ssh нет.
Подходит вариант скачать их на локальный компьютер, но очень много поискав не нашел нужной программы.
Подскажите пожалуйста
Как вариант - скрипт на php написать.
Все это происходит на обычном хостинге, доступа к ssh нет.
Подходит вариант скачать их на локальный компьютер, но очень много поискав не нашел нужной программы.
Подскажите пожалуйста
тоже чистил, скачать файлы помог http://www.webdrive.com/
потом можно синхронизировать или скрипт писать.
Да написать скрипт и все. Запустить потом его на сервере, предварительно изменив некоторые настройки ПХП(максимальное время выполнения скрипта и т.д.)
100к файлов это пипец, если в одной директории. Надо через шелл. Договаривайтесь с хостером.
100к файлов в одной папке - это вообще ниочем даже для пхп скрипта.
"файл .txt со списком имен файлов," - загоняете в массив.
GLOBом получить список файлов, пройти по ним циклом, ища текущий элемент в массиве, если не нашел - unlink файл.
У меня такая схема срабатывала на небольшом вдс с 500к файлов за пару минут.
100к файлов в одной папке - это вообще ниочем даже для пхп скрипта.
"файл .txt со списком имен файлов," - загоняете в массив.
GLOBом получить список файлов, пройти по ним циклом, ища текущий элемент в массиве, если не нашел - unlink файл.
У меня такая схема срабатывала на небольшом вдс с 500к файлов за пару минут.
А можно немного подробней?
Очень помог в этом вопросе SpaceX за очень скромную оплату и за 10 минут написал скрипт, который за 3 минуты удалил все лишнее. За что ему большое спасибо!
Все спасибо за советы!