- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
zzzit, благодарю за идею. Про nginx я как то упустил.
Да и поиск по этим словам начал выдавать разумные решения.
zzzit
такими штуками можно запросто легитимный трафик порезать, вредные настройки.
Гасим 95% всяких спаммеров грабберов и тп, даже понимающих куки и аякс редиректы.
какой принцип? в общих чертах.
Den73
Любыми штуками можно порезать легитимный трафик, особенно подключив проксирование и защиты от ддосов, которые все время чистят.
Здесь по крайней мере все просто и если автору нужно будет не ограничивать какой-то трафик, он сможет выдавать ключ зоны через цепочку mapов или функцию и каким-то клиентам ставить лимиты, а каким-то нет.
Я недавно наткнулся на посетителя, который нагенерировал 500 POST запросов по одному ровно раз в 15 секунд, то есть 100% не руками. Пошел проверить контент и рефереры, а посетитель ничего плохого не делал, все запросы оказались полезные, просто ему так удобнее было. А я забанить его думал :(
Мораль: боты тоже люди и не всегда вредители.
А чистилки трафика 100% бы такое порезали.
Эффективная защита может быть только на уровне движка, с динамическими хонепотами.
Это алгоритм, а какими средствами пользовались для достижения? Скрипт? В БД IP с счётчиком?
По логам, думается, проще всего определить такие запросы.
Написал скрипт на php + mysql
Я недавно наткнулся на посетителя, который нагенерировал 500 POST запросов по одному ровно раз в 15 секунд, то есть 100% не руками. Пошел проверить контент и рефереры, а посетитель ничего плохого не делал, все запросы оказались полезные, просто ему так удобнее было. А я забанить его думал :(
Мораль: боты тоже люди и не всегда вредители.
А чистилки трафика 100% бы такое порезали.
Я тоже иногда зашел на листинг и давай в новой вкладке открывать интересные страницы. Открылось несколько, остальные писали подождите.... Было неудобно.
Тут палка с двух сторон.
eN_Slon, В общих чертах по огромной базе ведёться база плохих и хороших не привязываясь принципимально к ip(кроме Азии, таких баним по ip или подсети за малейшие нарушения).
kxk, понято.
Я о другом способе говорил. Определять по поведению.
eN_Slon, Можем и по поведению парсить и по другим характерным вещам человека, но чуть за другие деньги, для нас нет невозможного, я говорил о самой доступной защите!