VPSua, Analytics и Метрика не трекают 99% спам-ботов, т.к. последние не умеют выполнять JavaScript. А те оставшиеся что умеют, зачем им тратить время на подгрузку JS c третьего сайта? Это снизит скорость прохождения вебсайтов, соответственно будем меньше отдача от рассылки спама.
Монитор Клавиатурович, и как долго вы собираетесь защищать от спама ваш сайт? Сколько времени готовы на это потратить? Мы даем альтернативу, заплати 150 руб/год и защита от спама больше не твоя головная боль.
Рассылки почтовые с предложением об услуге не нужны, достаточно добавить в ПУ 1 ссылку на нас.
zzzit, WAF не специализируются на защите от спама, пример тому наши клиенты, которые одноверменно использует нас + WAF.
Если на сайте нет ни одной формы, то скорее всего сайт очень "легкий" с точки зрения нагрузки на хостинг, т.е. это в любом случаи не "клиент" для этого партнерства.
По общению с коллегами, владельцами вебсайтов и друзьями вебмастерами, все сталкиваются и решают проблему спама. Клиентам хостинга точно так же, приходится не раз решать эту проблему, т.к. бесплатные решения половинчатые, либо защищают не продолжительное время.
Зависит от такого как будем сотрудничать. Нам достаточно если дадите на нас ссылку из Панели управления хостингом, на этом все, дальше наша работа. Знакомим, устанавливаем, тестируем, продаем и обслуживаем мы.
Т.е. схема наверно похожа на продажу SSL сертификатов, только проще, т.к. от вас не требуется интеграция в биллинг, ПУ. Только 1 ссылка.
Да, пропускает, 10-30 случаев на 1 миллион атак. Но мы с этим боремся, по каждому случаю есть отчет, его анализируем и улучшаем систему.
Мы сюда обратились потому, что видим ситуацию в которой могут выиграть все стороны, хостеры разгрузят оборудование и сеть, пользователи получат защиту, мы найдем новых клиентов.
На масштабы не жалуемся, в день в базу добавляем порядка 12к адресов, для сравнения у ближайшего конкурента stopforumspam.com 2-3к в день.
Принцип фильтрации спам трафика на GET запросах следующий,
1. при первом посещении веб-сайта плагин проверяет IP посетителя по локальной базе спам-активных сетей, база 4-5к сетей (все адресов ~20m), поиск по базе делается одним SQL запросом, что с учетом небольшого размера таблицы происходит очень быстро.
2. если IP посетителя чист, то ему в куки передается спец. метка, более его IP не проверяется.
3. если IP в базе, то прерывается дальнейшее исполнение кода CMS, посетитель редиректится на спец. страницу.
4. на спец. странице помещен JavaScript код, который помещает в куки туже самую метку из пункта 2 и редиректит посетителя на исходный URI.
99% спам ботов не умеют выполнять JS код сложнее операции присваивания, поэтому п.4 дает хорошую фильтрацию GET трафика, что в итоге снижает нагрузку на CPU сервера (т.к. прерывается выполнение PHP/ASP, SQL запросов и прочего кода необходимого для обработки запроса) и уменьшает объем отдаваемого трафика. Схожий алгоритм применяет CloudFlare, но для этого трафик необходимо пропускать через их сервера, а наше решение standalone, не требует дополнительного проксирования.
Эффективность решения можно посмотреть прямо сейчас, для этого используйте небольшой Perl скрипт по ссылке,
https://github.com/CleanTalk/perl-tools/blob/master/2s_blacklists_test.pl
Пример выполнения скрипта,
shagimuratov@netserv2:~/down$ sudo cat /var/log/apache2/cleantalk.ru.access_log | ./2s_blacklists_test.pl База спам активных адресов/сетей: 4281 IP адресов: 3553 Спам активных IP адресов: 313 Полезных запросов: 317828 Полезных данных, байт: 3068777309 Спам запросов: 7816 Спам данных, байт: 109510902 Соотношение спам запросов к полезным: 2.46% Соотношение спам данных к полезным: 3.57% shagimuratov@netserv2:~/down$
В итоге применение плагина на вебсайтах увеличивает коэффициент мультиплексирования клиентов на один сервер, т.е. к примеру, вместо 50 раз, тот же сервер можно продать 50-65 раз (клиентов на сервер).
Что касается использование хостерами фильтрации на front-end (nginx), то судя по всем наша база и база хостеров не пересекаются, т.к. иначе почему клиенты хостеров до сих пор вынуждены искать защиту от спама?