- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите в решении одной (вроде не сложной) задачи.
Перерыл весь форум и пол-инета, но так и не нашел грамотного выхода из ситуации ...
Интересует прога, или плагин к чему нибудь (например FTP клиенту) которая бы самостоятельно, например раз в неделю, скачивала логи с каждого сайта и определяла их в заранее выбранную папку вида /www.site.ru/2007/01/01.gz (и до 31.gz). Для последующей проверки анализатором. Конечно анализатор и сам все это умеет. Но с большего числа сайтов я статистику вообще не собираю, а бывают случаи, когда очень надо посмотреть, что творилось на сайте например 15 числа позапрошлого месяца.
Самому конечно скачивать логи с 50-ти сайтов, потом переименовывать, раскидывать по папкам весьма долгий и занудный процесс. Создавать профиль в анализаторе на каждый сайт тоже не интересно.
Вот и задался вопросом, как это можно осуществить, или есть может какие-нть другие способы?
Пишешь любой скрипт, который ходит куда надо - берет чего надо и складывает как надо а потом добавляешь cron job на выполнение этого скрипта, например раз в сутки и наслажадешься - или тебе надо прямо тебе на машину все это складывать?
Так в том то и дело, что желательно чтобы это все прямо ко мне лилось.
Можно даже не в автомате, а предположим: Каждое воскресенье я запускаю прогу и нажимаю что-то типа "обновить все логи", а она качает со всех сайтов и складывает куда надо ...
К тому-же в скриптах я не больно силен :)
P.S. а не существует например каких-нибудь макросов или плагинов для CuteFTP или других клиентов?
Если 50 сайтов, то организуй сборщик на каком-нибудь сервере.
Я бы сделал так.
1. Настроил ротацию логов, с хранением старых логов в 1 день
2. Написал простенький скрипт, который забирает вчерашний лог (к тому времени ротатор его запакует) fetch'ем или wget'ом и складывает в один каталог.
3. Забирал бы потом эти файлы из под Windows вручную. (грубо говоря зашел- * (выделил все) и F6 (перенос))
Надоело бы забирать, настроил бы автоматическую скачивалку какую-нибудь. Тот-же консольный ftp клиент + bat файл.