подскажите бесплатную программу для стат. анализа логов access_log_site

1 234
redizka
На сайте с 20.10.2013
Offline
99
#31
WebStorm #:
жаль, что нельзя с произвольным форматом лога работать, а можно только с дефолтным, а так, хорошая штука
а какой у вас формат? скиньте мне пример
WS
На сайте с 01.11.2008
Offline
165
#32

redizka #:
а какой у вас формат? скиньте мне пример

у меня такой
ip - code - date domain "METHOD URL protocol" size "ref" "user agent" "accept languages"

офигенно было бы, если бы где-то в настройках можно было указать формат, например в таком виде 

   log_format  main  '$remote_addr - $status $remote_user [$time_local] $host "$request" '
                      '$body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_accept_language"';

upd: спасибо что добавили эту фишку, очень удобно! 
Genius Ideaing
На сайте с 12.02.2024
Offline
116
#33
redizka #:
Переработал первую версию скрипта анализа и оформил более культурно https://redlogs.ru/

у вас после проведения анализа лога,

появляются две закладки: ASN и Роботы

во вкладке Роботы у вас перечислены обнаруженные в логе Роботы, но вот если Кликнуть по плашке с названием Робота, не раскрывается список с группировкой по отдельным IP и целым подсетям, 

чтобы плохих роботов можно было отсекать через брандмауэр сервера или .htaccess непосредственно по IP и  их подсетям.

это неудобно. отсекать плохих роботов по анализу user-agent неудобно... т.к. брандмауэр работает только с отдельными IP и подсетями АйПи... 

а добавлять строки мод_рерайт в .htaccess неудобно, так как сайтов может  быть сотни.. и приходится редактировать сотни .htaccess

добавите детализацию на Вкладку Роботы результатов анализа лога?

Дешёвый хостинг и домены: https://clck.ru/3FxXCa / Заработок в $$$ на трафике сайта! Не РСЯ/AdSense: https://clck.ru/3REcmY / Есть Идеи! Ищу людей для совместного воплощения этих идей в Интернете! Мой Telegram: https://clck.ru/396JFF
1 234

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий