- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть несколько папок, там идёт нескончаемый поток логов, все в отдельные файлы, не большого размера.
Имена файла с метками дат и времени, выглядит так "30.09.13_15.50.50.log".
Хотелось бы раз в час их паковать в "30.09.13_15.logs.расширение_архиватора"
Нужна команда в одну строку пихать все 3600 файлов в один архив и после удачного завершения, чистить файлы.
Посоветуйте какой формат взять, главный фактор для этой задачи - минимизация занимаемого места на диске, желательно при этом всё-таки проц сильно не перегружать на долго, чтоб не страдал сам сайт. Если не ошибаюсь время запаковывания и распаковывания разнятся в зависимости от формата, так вот на распаковывание наплевать, там торопится некуда.
Что бы не плодить темы: нужна так же команда, архивировать слепки базы, сделанные через xtrabackup. На сжатие не что бы пофиг, но не самый главный фактор, главнее наверное что бы архив записывал права файлов и их овнеров, время запаковки менее интересно, чем время распаковки.
Вы не указали операционную систему.
Лучше пользоваться штатными средствами системы. А не изобретать свой велосипед.
В линукс это logrotate.
Также для апача и nginx есть общепринятые схемы ротации логов.
Вы не указали операционную систему.
Лучше пользоваться штатными средствами системы. А не изобретать свой велосипед.
В линукс это logrotate.
Также для апача и nginx есть общепринятые схемы ротации логов.
Да, извиняюсь, я уже как типичный юзер винды, думаю, что раз раздел администрирование серверов, значит у всех линукс и скорее всего дебиан как у меня :D
А это не апачевские логи, а логи скрипта статистики.
Тем не менее настоятельно рекомендуем использовать logrotate.
У него нет чего-то меньше, чем daily, поэтому можно убрать daily вообще, поставить size = 1 и вызывать из cron-а logrorate самому каждый час. Будет что-то типа:
Тем не менее настоятельно рекомендуем использовать logrotate.
У него нет чего-то меньше, чем daily, поэтому можно убрать daily вообще, поставить size = 1 и вызывать из cron-а logrorate самому каждый час. Будет что-то типа:
Стоп стоп стоп, я ведь верно поняла команду, что он запихнёт туда все лог файлы? Не разбивая их по часам. Я просто ещё не решила, запускать раз в час или один раз где-нибудь ночью. Что-нибудь вроде "В 3 часа ночи, раскидать все логи за вчера с часовым шагом".
В данном случае он будет все файлы *.log в директории каждый час "вращать". Создавай log.1, .log.2, ...
Формат файла можно менять. Например:
Можно просто написать скрипт, который будет перемещать файл:
Вернулась к своим баранам, накидала такой вот файлик:
Проблема только в том, что архив создаётся, но файлов в нём нету (((
---------- Добавлено 16.11.2013 в 13:43 ----------
Есть папка с логами статистики выполнения скриптов, там под каждый скрипт своя папка, нужно внутри папок делать часовые архивы, опознаются файлы, по тому, что они тоже проименованы таймстампами. Алгоритм такой, что скрипт бежит по папкам, и архивирует файлы за предыдущий час. Сейчас зависла на том факторе, что файлы не сохраняются в архив ((
Нужно пошагово проверять результаты работы каждой команды.
На каждом шаге выводить результаты, например командой echo.
Не имея доступа к серверу этого не сделать.
На форуме вам покажут только направление, а уж отладкой вам нужно заниматься самому. Или нанимать кого то.
Animegirl, кто этот файлик запускает и какое у запускающего $PWD, оно не отличается от места с логами?
---------- Добавлено 16.11.2013 в 17:20 ----------
устроит?
/bin/find /mnt/logs -type f -mtime -60 -name "*.log" -exec /usr/bin/xz -9 '{}' \;