Обычно в таких темах на форуме страдалец получает кучу вредных советов, и запрещает что попало, в том числе роботов от искалок, которые проверяют клоакинг, и могут приходить с любых IP номеров, с любыми свойствами, а потом жалуется, что пропали посетители из искалок.
а что вы предлагаете делать, когда к тебе ломятся с резидентных прокси (обычно просто взломанных устройств) со всего мира зловреды кроме как фильтрацию трафика? ерунду вы говорите товарищ, и гугл и яндекс сами выкладывают списки своих подсеток не просто так, а чтобы их учитывали в фильтрах, потому что это уже давно вошло в жизнь - не фильтруешься - становишься мальчиком для битья
и не надо путать фильтрацию и проверку на роботность с клоакингом, тот же клауд ведь не считается клоакингом
но возвращаясь к теме топика и стартпосту ) работать на дядю = работать за еду, пока тебя не выкинут на свалку как использованный расходник.
хочешь заработать больше - нужно быть предпринимателем, не в юридическом, а в философском смысле этого слова.
когда воробьёв много, то они уже представляют угрозу
к тому же проверка лёгкая, не нагружает сервер
в cloudflare например указываем передачу заголовка
XWEBSTORM: LKAHS23KHKH4
в nginx простая, но эффективная проверка
if ($http_xwebstorm != "LKAHS23KHKH4") { return 403;}
значит вот такое решение для тех сайтов, которые юзают cloudflare cdn и не хотят, чтобы их дёргала всякая школота через прокси из сети клауда я придумал:
1 - настраиваем передачу уникального заголовка в настройках cdn, который будет передавать cloudflare защищаемому сайту
(rules - > overview -> createrule->request header transform rule->all incoming requests->set static header)
2 - если пришли из сети cloudflare и нет этого уникального заголовка, показываем 403
не благодарите