Анти БОТ

Анти БОТ
Рейтинг
136
Регистрация
14.03.2020
Должность
специалист по поведенческим ботам
EdwardEdit #:

И это значит, что это боты? В рунете, около 40 млн таких запросов в месяц. И большая часть это не боты.

Это понятно, что в целом есть переходы с набором адреса, и их много, тем более в браузере есть подсказки, если уже заходил. Особенно в случае с большими известными сайтами.
Но если на почти никому не известный сайт вчера было 10 прямых переходов в день (и 300 из поиска), а завтра прямых стало 1000 - это явно аномалия. И если владелец сайта не уследил - то эта тема будет в топе форума.

По факту с рекламными сетками действует тот же принцип что и на воде - спасение утопающих - дело рук самих утопающих. Яндексу проще отправить в бан, чем разбираться. 

TonyBlackberry #:

А точно ли с яши? У меня на сайте заходы вроде из поиска Яндекса, но ip принадлежат Битерике..

Можно посмотреть по айпи, к какой подсети принадлежит. В соседней теме недавно выкладывалась инструкция для htaccess по блокировке битерики.

KeicH2O #:

...продает инфу по настройке CF из VC_RU...

Вот в этом месте уже можно смеяться?

KeicH2O #:

...Да и цифры твои непонятны...

Для того, чтобы цифры были понятны, нужно хоть раз в жизни видеть интерфейс клаудфларе изнутри, иметь опыт защиты от ДДОС. И в целом понимать, чем цифра 100 отличается от цифры 1  000 000. Но это не ваш случай.

unspace #:

Да фактически никак. Разве что ежедневно мониторить логи и банить по ip. Но так не всех ботов можно увидеть, какой-то процент проскочит, да и там со временем список будет огромный. Насчет ущерба посетителям - спорно, ИМХО все уже привыкли к защите от ботов. Хотя если там упоротая капча, то это отпугнет многих.

Банить по айпишникам такая себе затея. Как правило, каждый визит идет с нового айпишника. Да и бороться с конкретным ботом уже после его посещения, что-то там блокируя - глупо. Визит уже состоялся.
На сегодня из работающих методов, значительно сбривающих поведенческий трафик (не весь, но большую часть) - это серьезно настроенный Cloudflare. Это если понимать, о чем речь и что фильтровать.

А так яндексу да, проще забанить конкретную площадку, чем разбираться с той проблемой, которую они же сами и создали, подтолкнув к росту сегмент ботов, имитирующих реальных посетителей.

Антоний Казанский #:

После многократных хождений по граблям и многократных рассуждений на тему - какого хрена текущее обновление движка заставляет меня переделывать сайт чуть меньше, чем полностью, лет  через 5 - 7 вы созреете до того, что надо учить языки программирования и писать свой код для полного и осознанного контроля ситуации.

Как по мне, так ровно наоборот. По незнанию понаделывают дырок, да и сайт будет таким же необновляемым рожном на граблях.
Более устойчивая конструкция - свежий вордпресс, php и проч, последние версии плагинов, настроенная безопасность. И чтобы никакие рукожопы не ставили костыли куда попало.
Т.е. если обновление чего-либо обрушивает сайт - этот костыль нужно убирать, и больше таким рукоблудством не заниматься.

Ростислав Шацкий #:
Может быть, кому-то принесет пользу мой подход к реализации на Wordpress: 🙏

1. Написал сниппет:
2. Отслеживание
Далее,если в метрике вижу много прямых заходов, то отслеживаю и сопоставляю с логами "visitor_log.txt", создаваемый сниппетом, в корне сайта

3. Блокирую

В файле .htaccess, в корне сайта, добавляю строки с подозрительными ip

Интересное решение. А как это поможет если в ботосетке много айпишников и каждый заход - с нового?

Dmitriy_2014 :

Всем привет!

Есть ли какая-то ответственность у веб-мастера, владельца сайта, если по его статье/инструкции/скрипту, скажем сгорела видеокарта?

Сжег например видюху не абстрактный вебмастер Петя или полубот девочка рерайтер Маша, а владелец этой видюхи по имени Нуб. Вот пусть посмотрит в зеркало и ругает того кого он там видит. Или пишет жалобы в Спортлото, в Гаагский суд по правам животных, и проч.

anatolievich77 :

Какое-то время назад на сайте стало появляться много прямых заходов ботами, всё по классике; мы установили cloudflare, наднастроили, и в целом это помогло.

Теперь на сайте появилось большое количество внутренних переходов с очень высоким уровнем отказа под 40%, хотя нормальный уровень отказа на сайте 8–9%. Таймаут визита в метрике настроили максимальный  — 360 мин., но это никак не влияет на ситуацию.

М.б. кто-то знает, как поступить, подскажите пожалуйста. Вообще нигде не нашёл инфы.

Поставьте в то правило, которое их пропускает, Managed Challenge вместо обычной проверки браузера. Или даже капчу. Возможно, это решит проблему. Но все зависит от того, какие вы вообще туда поставили правила и что вообще фильтруете, об этом выше - ни слова.

promoreactor :

уже более 2 млн.визитов в месяц. 


Это какой трафик в день на сайте, если лишних 60 000 визитов в день особо не напрягают сервак.
Нет смысла бороться с ветряными мельницами и банить по подсетям. 

В том же клауде для получения полной картины по трафику иногда вешают джаваскрипт проверку на все заходы на пару часиков, а потом сидят изучают логи. Чтобы уже донастроить докрутить правила под особо наглых спамеров накрутчиков, которые пролазят через основные фильтры.

Ну и в любом случае, наиболее эффективно бороться с непрошенными гостями получается именно инструментами клауда, как ни крути.

Yurshyst #:

Мы то же получили такое "счастье" - психанули и подняли все свое.

Думаю в такой ситуации переходить к кому-то другому типа Маила- плохое решение, т.к. сегодня Яндекс завтра Маил, так и бегать что ли))))

Свой сервак, своя почта - только так теперь мне кажется. Если что пишите - подскажу)

Это до первого ДДОСа вашего сайта.
А потом вы вдруг узнаете, что в SPF записи и в служебных заголовках писем у вас указан айпи сервера. Что позволяет прекрасно укладывать ваш сервак в обход любой защиты.

Всего: 1414