Защита сервера и анализатор логов апача

12
S
На сайте с 09.10.2006
Offline
45
4328

Всем доброго вечера.

Сейчас у одного сайта логфайл за день весит около 300 мб, просматривать его самому смерти подобно. Думаю использовать какой-нибудь анализатор, который смог бы облегчить выявления "плохого поведения в сети".

Первые мысли сразу об awstats, но может есть специальные программы созданные именно для анализа на предмет атак?

Сталкивался ли кто-нибудь с похожей проблемой и каким образом он её решил?

Интересны как серверные решения, так и клиентские. Т.е. чтобы я мог скачать зархивированные логи к себе на машину и скормить их программе, тем самым не грузив лишний раз сервер. Хотя это не обязательно.

p.s. Если с одного адреса идет очень много HEAD запросов на один и тот же урл - что это может означать??? :/

Nikolai Sokolov
На сайте с 13.03.2008
Offline
65
#1

какой смысл анализировать лог apache? потом звонить или писать email людям чтоб больше так не делали?

Лучше сразу надежно защитить сервер чтоб потом над ним не трястись. И время от времени просматривать действительно важные логи

Используя наши услуги, сервисы, оборудование и опыт работы в области информационных технологий (веб-хостинг) поможем в продвиженни вашего бизнеса www.servervk.eu (http://servervk.eu)
S
На сайте с 09.10.2006
Offline
45
#2
Nikolai Sokolov:
какой смысл анализировать лог apache? потом звонить или писать email людям чтоб больше так не делали?
Лучше сразу надежно защитить сервер чтоб потом над ним не трястись. И время от времени просматривать действительно важные логи

К примеру заблокировать их фаерволом :/

Логи вообще полезно смотреть хотя бы потому, что новых поисковиков появляется с каждым годом всё больше и больше - трафика с них нет, а вот грузят сервера они бывают нехило.

Nikolai Sokolov
На сайте с 13.03.2008
Offline
65
#3

Блокировать не выход. Вдург человек сидел за прокси. В результате у большой сети может не быть доступа к сайту

S
На сайте с 09.10.2006
Offline
45
#4
Nikolai Sokolov:
Блокировать не выход. Вдург человек сидел за прокси. В результате у большой сети может не быть доступа к сайту

Ну это к примеру. Не обязательно ведь блокировать посетителя, можно блокировать 100% бота, который заходит с сервера плохих ребят.

Один знакомый позвонив в фирму узнать прайс на товар, обиделся когда его послали этот прайс скачать из интернета. Он взял и неделю без перерыва качал этот прайс со своих серверов. После этого прайсы потом ему сообщали по телефону. Но это так к слову...

Дело в том, что любой "доброжелатель" точно также может поступить. А кроме как анализа логов и блокировки фаерволом - я не вижу вариантов как можно защититься.

Но я и не админ, а поэтому буду очень благодарен тем кто поделится своим опытом и мыслями по данному вопросу.

p.s. на сервере стоит freebsd

D
На сайте с 05.06.2007
Offline
155
#5

опытом..

у меня ежеминутный анализ лога и блокировка фаерволом тех кто слишком часто обращается к пхп файлам(поисковики в белом листе).. по истечению периуда авторазблокировка,

от ддоса отлично спасает..

скрипт правда сам писал)

Написал не мало шедевров ;)
S
На сайте с 09.10.2006
Offline
45
#6
Dimanych:
опытом..
у меня ежеминутный анализ лога и блокировка фаерволом тех кто слишком часто обращается к пхп файлам(поисковики в белом листе).. по истечению периуда авторазблокировка,
от ддоса отлично спасает..
скрипт правда сам писал)

Спасибо за помощь!

Написать скрипт самому проблемы не будет. А вот с оптимальным критерием по которому следует блокировать будет несколько сложнее.

Т.е. смотреть открывает ли посетитель разные урлы или постоянно один?

Или блокировать тех, кто тупо долбится в один и тот же урл не грузя при этом картинок и всего прочего?

qwartyr
На сайте с 19.10.2007
Offline
40
#7

cat [...]/access.log | awk ' {print $1 }' | sort | uniq -c | sort -nr > list.txt

в list.txt будет список айпи отсортированный по кол-ву обращений.

просматриваете, находите кто чаще всего обращался к апачу.

потом grep [подозрительный_ip] [...]/access.log | more

и смотрите за его активностью

Если что то не нравится блокируйте фаерволом.

Если идет ДОС на какую то одну страницу, то досящих очень легко засечь похожим скриптом

сat [...]/access.log | grep [плохой урл] | awk ' {print $1 }' | sort | uniq -c | sort -nr > list.txt

Под подозрением те, кто чаще всего дергает апач - только не забаньте поисковых роботов :))

профессиональное администрирование серверов (http://www.unixsupport.ru) отзывы (http://www.free-lance.ru/users/qwartyr/opinions/) на free-lance.ru
D
На сайте с 05.06.2007
Offline
155
#8

qwartyr, читать весь лог? ну да, это ручная проверка после боя, а автоматизация лучше, зачем копаться в прошлом, нужно следить за настоящим, и желательно не проводя время в шеле ))

Как уже говорил, яндекса и гугла в белый лист. Они самые резвые )

Один фаил лога должен быть, общий..

скрипт, можно даже на пхп, без крона, читает раз в минуту размер файла, если увеличился то читает эту разницу построчно (как раз новые строки за минуту), потом смотрим только запросы к пхп файлам и подсчитываем сколько запросов к ним с одного ип. В среднем в секунду оптимально было 1-2 запроса, чтобы другие поисковики не побанить, от ддоса тоже спасает)) Ну при привышении отправлять в iptables, а после 24часов бана разблокировать, также автоматом)

PS. Яндекс у меня 4 запроса в секунду делал, негодяй какой )

G
На сайте с 24.06.2008
Offline
54
#9

Для apache есть модуль mod_security, который умеет складывать в лог и блокировать, если такая возможность необходима, все запросы к веб-серверу. В комплекте идет большой список «вредных» сигнатур для различных атак, типа sql injection, xss, shell command injection, и.т.д., который на практике приходится чистить, дабы избежать ложных срабатываний.

Если говорить про превентивную защиту сервера в целом, то можно использовать какую-нибудь IDS — тот же Snort.

[Удален]
#10
slip:
Написать скрипт самому проблемы не будет. А вот с оптимальным критерием по которому следует блокировать будет несколько сложнее.

У меня работает критерий: больше 10 пар запросов с интервалом меньше секунды в паре - бан. Пока не жалуюсь.

Кстати, нормальные поисковки не хамят, разве что Яха; дык с него все равно трафика ноль. Но есть и белый список поисковок - на всякий случай.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий