- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, посоветуйте хороший анализатор логов апача который делает отчеты в удобном виде для просмотра статистики визитов различных ботов на сайт.
Например чтоб можно было видеть в какой день какой бот заходил, какие страницы скушал ну и время во сколько он какую страницу посетил.
Какое из готовых решений позволит видеть информацию в таком виде?
---------- Добавлено в 14:22 ---------- Предыдущее сообщение было в 14:21 ----------
Забыл написать, Линух+апач :)
---------- Добавлено в 14:23 ---------- Предыдущее сообщение было в 14:22 ----------
Коллеги, посоветуйте хороший анализатор логов апача который делает отчеты в удобном виде для просмотра статистики визитов различных ботов на сайт.
Например чтоб можно было видеть в какой день какой бот заходил, какие страницы скушал ну и время во сколько он какую страницу посетил.
Какое из готовых решений позволит видеть информацию в таком виде?
webalizer, analog, google://
sawmill - стоит денег. но решение того стоит.
awstats (хотя тот еще монстр)
Использую webalizer.
Для моих нужд мне хватает.
Насколько я знаю в webalizer нет готового отчета, который бы выделял клики отдельных поисковиков.
Или я чего то упускаю и такой отчет есть в других анализаторах?
Хотя такой отчет можно делать и в webalizer, если известны IP поисковиков.
egrep '(ipПоисковика1|ipПоисковика2|ipПоисковика3)' access.log >log1
Далее строим отчет с помощью webalizer по логу log1
Мне нужно видеть статистику заходов ботов по дням а именно в какой день какие боты заходили какие странички посещали, какой из озвученных анализаторов позволяет видеть информацию в таком ключе?
Мне нужно видеть статистику заходов ботов по дням а именно в какой день какие боты заходили какие странички посещали, какой из озвученных анализаторов позволяет видеть информацию в таком ключе?
awstats, если прикрутить дополнительные отчеты, такое умеет.
неудобство в том, что по дефолту он ведет статистику не по дням, а месяцам.
чтобы посмотреть информацию за конкретный день, нужно запускать отдельную обработку с databasebreak=day
Насчет готовых решений не в курсе, сам написал для себя php парсер лога энжин-икса и апача на регулярных выражениях... Отчет выводится в виде html таблицы, либо сортируется в файлы. В общем то никаких конфигов к нему не предусматривал, поэтому под конкретную задачу его постоянно меняю.
Если вас интересуют только поисковые боты, то попросите знакомого программера, он такой скриптик за 20 минут сделает.
P.s. Не отдам и не продам ...
можно вырезать из лога запросы ботов
grep 'Googlebot' access.log>log1
И анализировать log1 любым анализатором
понятно, значит буду кодера искать :)
с grep-ом наигрался, хочется чтоб все в удобочитаемой форме можно было смотреть сведя к минимуму рутинную работу по построению графиков и отчетов в экселе :)
grep-ы и вызов webalizer вставляются в скрипт на шеле, ставятся в cron и все происходит автоматизированно.
Я вам скажу как человек, который очень много работает с логами и анализаторами логов.
Нанимать программиста, что бы он вам писал программу по анализу логов – не рационально.
Так как необходимые вам отчеты будут постоянно меняться, а ваша программа будет вряд ли гибкой в настройке. Гибкая в настройке программа потребует много времени для написания.
ИМХО, более удобно все таки на скриптах shell это сделать egrep -ами.