У разработчиков метрики не хватает мозгов переименовать "прямые заходы" в "другое" или "разное", потому что по факту в них включают всё, что не попадает в другие разделы включая заходы из месенджеров.
У телеги и вроде как у ватсапа переход прямой. Там нет реферера мессенджера. Поэтому как они отфильтруют? я првоерял по телеге давно на пк и мобайл. А вот другие левые данные там есть да, правила клауда бывают не отрабатывают если указываешь прямой заход, а нужная тебе сеть не блокнулась, а переход то не прямой, но в метрики прямой хд.
И как много ботов обычно проходят проверку клауда? Кто нибудь знает?
Проверка у клауда есть полуавтоматическая, когда клауд сам решает выдать ее или нет. И обязательная. Вот обязательную мелкие ПФ боты не проходят.
А вот боты от реальных провайдеров обычно проходят обязательную капчу.
Дно))
Раньше в этой ветке 1000 человек отписывалось и можно было понять общую картину. Теперь 5-7... потому каждый случай может быть индивидуален. У всех в разных странах акки, разные отделения шлют.
А что писать? Ну пришло уведомление, утром будут. Все уже знают как и куда выводить. Раньше паника была, привыкли.
А какие сервисы? У меня из сторонних только кнопки поделиться от Яндекса.
Ну тогда все будет хорошо, в любом случае если что то отвалится на сайте, то зайдите в логи прямых где капча и сделайте сортировку по Path (там можно колонки для логов добавлять разные) куда обращаются прямые, и уже или айпи в исключение, user agent или что то другое.
ПФ боты с хостингов не ходят. Это не ПФ боты, а скорее парсеры оттуда и спамилки.
ходят, у них юзер агент как у человека + посмотрите в чатах по накрутке где люди размещают своих ботов, да и в целом посмотрите метрику - сопоставьте это с логами сайта.
Да, я там уже подредактировал немного и в том числе поставил для прямых заходов, только не skip, а челлендж, и сразу процесс оживился. С утра отказов было 32%, сейчас 29% и продолжает постепенно уменьшаться как и процент прямых заходов.
Смотрите чтобы под прямые не попали ваши подключенные сервисы к сайту, или условно с айпи сайта запрос. Не будет лишним добавить в исключения или в самих правилах или во вкладке Tools (но там нет логирования).
Вообще в целом яндекс капча сложная для обывателя интернета, я вот не всегда понимал что им от меня нужно и просто закрывал вкладку (это было с инкогнито на странице яндекса). А что будет если у Вас ИМ и аудитория возрастная? По возможности нужно обходиться без любой капчи, только анализ логов, метрики и уникальные правила. Капча клауда намного проще для человека, но она тоже пропускает 20% где то.Капча гугла с гидрантами, мне кажется самая удобная для пользователя, да и боты после нее отсекаются, а там можно и капчу клауда, мол решай еще..). Яндекс сам породил эту проблему в РУ сегменте, он учитывает ПФ в поиске, вот вся и проблема. У яндекса достаточно аналитических данных чтобы отсечь 70% ботов , большая часть ботов идет не от провайдеров, а от хостингов, где нормальных людей не будет. Яндекс условно мог бы прикрутить к метрике опции (блокировать ботов - галочка по желанию). Яндекс видит что заход со спамной сети - дает капчу свою или не учитвает это в метрике, но яндексу это не надо. Потому что рынок построен так, реклама, бюджеты, $. Я не видел на форуме ни одного сообщения, мол пошли ПФ боты и трафик с гугла упал. Видел что трафик с ПС яндекса падает сразу.
Кто скажет, через какое время уже заметен результат отсечения ботов через клауд? А то я уже два часа как все поставил, создал 5 правил по мануалу, вроде все правильно настроил, а количество прямых заходов и отказов не сокращается.
У Вас не совсем верный алгоритм правил. Вы в 1 правиле разрешаете "хороших ботов" по мнению клауда (оттуда идут разные зарубежные хостинги например ASN24940 Hetzner). Могу предположить что прямые заходы попадают в первое правило и разрешаются. Ростелеком тот же с ботами.Все это исключается Вашим первым правилом и боты уже на другие правила проверки не попадают. Вам нужно первым правилом делать блокировку спамных сетей допустим, а потом уже разрешать хороших ботов, или же лучше разрешать ASN сети и User Agent`ы нужных сервисов точечно. Если условно сео сервисы размещены на спамных сетях, то должно быть самое первое правило, которое добавляет исключение (не всей сети а допустим по User Agent).4 и 5 правило можно объединить через OR если конечно там нет лимита символов.И пятым правилом, просто сделать логирование всех прямых заходов: (http.referer eq "")
На основе этого правила и других, можно смотреть графики (логи) кого пропустили и на какую страницу обращались. Надеюсь логика понятна.И условно - если вы блочите только AS сети, а не старые протоколы HTTP 1.* то в большинстве случае Known Bots - лишнее, т.к вы не затроните ас сети гугла, яндекса, microsoft. Там в логах клауд пишет чья сеть.В условиях СНГ(ПФ ботов), вообще лучше делать белый лист исключения по сетям, урлам и юзер агентам.