Кто Ваш хостинг? access log и error log можно залить? (возможно большая нагрузка на сайт)
function money () {
var k = Number(document.getElementById('kurs').value), a = Number(document.getElementById('ik_payment_amount_usd').value);
document.getElementById('ik_payment_amount').value = a*k;
};
В html коде переименуй name на id и добавь кнопку с onclick="money();" либо после этой функции вставь SetInterval('money();',100);
Решение не тестировал, но должно работать
htaccess тут не поможет, можно фильтровать php, можно попробовать поколдовать с javascript. С js сервер не будет нагружен..
А что за хостинг? Если антивирус не может найти, то можно самому вычислить ;)
Я делал так: зашел через ftp в Nautilus и просто искал по папке с сайтом ".php". Он выдал список всех файлов, сортировал по полю "дата изменения" и шел по свежим файлам...смотрел код, вирусы они тут однотипные.
Эту проблему на 3-5 сайтах под WP, joomla и форум, решилась за час
В моем случае, хостинг подсказал какие файлы (он указал на первый файл, а их было на каждом сайте 10-15)
А если это просто наплыв пользователей?) это может быть кто то дал ссылку на популярном ресурсе...
Как определить момент, когда нет атаки? :)
У большинства ботов при атаке почти одинаковые ip, отличается не сильно... можно по ним как-нибудь вылавливать. Но согласен, это значительно усложнит выборки ботов из списка обычных посетителей сайта.
Ну и можно попробовать применить запись в куки или сессию ... через ajax или js записывает некую инфу, и после смотреть, есть данные или нет... такая своеобразная авторизация для браузера ...---------- Добавлено 13.04.2015 в 01:29 ----------на счет grep надо проверить что быстрее будет ... так как в access log может быть и по 100к записей, а интересующих 1к =)
Если смотреть access_log, то там будет огромная куча запросов, а у нас одна или две нагружены страницы...
Я бы вставил скриптик на нагруженные странички, что бы они записывали открытие этой страницы в базу (ip,дату,страницу,post и get данные)
Далее кроном, раз 5-10 сек запускается скриптик по фильтрации и смотрит, если какой то ip открывает по 5 страниц за 5 сек, это не есть норма... он выписывает такие ip из базы и формирует списочек, кого на бан
После пишет в файл .htaccess в корне сайта или в папку с нагруженными страницами
И так же кроном удаляем из базы запросы старше 2-12 часов
P.S. Похожий алгоритм я реализовал на защиту админки WP, там удалось полностю снять нагрузку, при атаке с 200 ip