ИванСергеевич

Рейтинг
1
Регистрация
12.04.2015

Кто Ваш хостинг? access log и error log можно залить? (возможно большая нагрузка на сайт)

function money () {

var k = Number(document.getElementById('kurs').value), a = Number(document.getElementById('ik_payment_amount_usd').value);

document.getElementById('ik_payment_amount').value = a*k;

};

В html коде переименуй name на id и добавь кнопку с onclick="money();" либо после этой функции вставь SetInterval('money();',100);

Решение не тестировал, но должно работать

htaccess тут не поможет, можно фильтровать php, можно попробовать поколдовать с javascript. С js сервер не будет нагружен..

А что за хостинг? Если антивирус не может найти, то можно самому вычислить ;)

Я делал так: зашел через ftp в Nautilus и просто искал по папке с сайтом ".php". Он выдал список всех файлов, сортировал по полю "дата изменения" и шел по свежим файлам...смотрел код, вирусы они тут однотипные.

Эту проблему на 3-5 сайтах под WP, joomla и форум, решилась за час

В моем случае, хостинг подсказал какие файлы (он указал на первый файл, а их было на каждом сайте 10-15)

zexis:
Подсчитать количество строк за последнюю минуту анализируемого файла access.log.
Если меньше некоторого значения, атаки точно нет.
Если больше некоторого, значит есть.

А если это просто наплыв пользователей?) это может быть кто то дал ссылку на популярном ресурсе...

zexis:
4) в анализе логов есть очень много ньансов. Например, когда нет атаки его лучше автоматически отключать, что бы не побанить быстрых пользователей.

Как определить момент, когда нет атаки? :)

zexis:
Часто отдельные ддос боты не делают много кликов в секунду.
Например, могут делать один клик раз в 5-10 секунд
Но за счет того, что таких ботов например 500, суммарно создают высокую нагрузку.
Для поиска таких медленных ботов, нужно придумывать более сложные механизмы поиска.
Банить ботов лучше через iptables или ipset. Так как существенно меньше будет нагружать сервер.

У большинства ботов при атаке почти одинаковые ip, отличается не сильно... можно по ним как-нибудь вылавливать. Но согласен, это значительно усложнит выборки ботов из списка обычных посетителей сайта.

Ну и можно попробовать применить запись в куки или сессию ... через ajax или js записывает некую инфу, и после смотреть, есть данные или нет... такая своеобразная авторизация для браузера ...

---------- Добавлено 13.04.2015 в 01:29 ----------

на счет grep надо проверить что быстрее будет ... так как в access log может быть и по 100к записей, а интересующих 1к =)

Если смотреть access_log, то там будет огромная куча запросов, а у нас одна или две нагружены страницы...

Я бы вставил скриптик на нагруженные странички, что бы они записывали открытие этой страницы в базу (ip,дату,страницу,post и get данные)

Далее кроном, раз 5-10 сек запускается скриптик по фильтрации и смотрит, если какой то ip открывает по 5 страниц за 5 сек, это не есть норма... он выписывает такие ip из базы и формирует списочек, кого на бан

После пишет в файл .htaccess в корне сайта или в папку с нагруженными страницами

И так же кроном удаляем из базы запросы старше 2-12 часов

P.S. Похожий алгоритм я реализовал на защиту админки WP, там удалось полностю снять нагрузку, при атаке с 200 ip

1 23
Всего: 29