Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
potapmec #:
Здесь нужно выбирать, что для вас лучше: или у вас сайт остается в ТОПе и при этом теряется из 10 посетителей 3 (так как они, как и вы не готовы проходить капчу), или у вас сайт оказывается на третьей странице и посетителей вообще не будет (кроме ботов конечно же).

Совершенно верно!


potapmec #:
Я же уже писал, не нужно тупо ставить гугловскую капчу, чтобы посетители  кликали по гидрантам, светофорам и зебрам, Если включить фантазию, можно при выводе капчи добавить все что угодно, от самой простой, до анимации, и здесь опять же, если включить фантазию (в зависимости от тематики) можно сделать, чтобы не один реальный посетитель не ушел. 

Именно! И выше я предложил вариант c "прокладкой" на поддомене. Большая часть ботов отказников - это несколько секунд онлайн, пару прокруток и выход. Реальный же человек осознанно пойдет по навигации. Таким образом, кстати, можно будет реально замерить кол-во зафильрованных живых пользователей без всяких капчей с рефером своего же поддомена. 

Вариантов - масса, главное проявить творческую смекалку и начать хоть что-нибудь делать, а не сокрушаться по поводу тайных заговоров и теневом склике Яндекса своей же рекламы. 

nirvanius #:
1. Для многих реальных пользователей это будет первичный заход, но Ваши алгоритмы могут воспринять их как паразитные, потому что ранее с этого же ip заходил бот. 

Согласен. В этом есть слабое звено предложенного метода. Однако я в принципе не представляю себе решение, где будет корректное отделение имитации браузерных действий ботом и живым человеком. C участием живого наблюдателя - да, но программным способом - пока затрудняюсь даже представить себе это решение. Можно конечно анализировать паттерны, фиксировать геометрию перемещений, но это всё в той или иной допустимой погрешности. А вот чётко отделить пользователя от бота, которые например, только выполняют прокрутку страницы - здесь чётких возможностей не вижу.

Если уж Яндекс в настоящий момент не может корректно и точно выполнить эту задачу, то куда уж нам частным лицам.


nirvanius #:
2. Во многих сервисах и я ввожу капчу. Но, как правило, это уже знакомые и необходимые мне в данный момент сайты. Здесь же речь идет о поисковой выдаче и посетитель судит о сайте только по сниппету.

Согласен. Однако не стоит отметать возможность повторных заходов, где пользователь уже был на сайте.


nirvanius #:
Как я уже упоминал выше, данная схема пригодна лишь тем, у кого основная доля целевых визитов десктопная и мобильной выдачей можно принебречь. 

Отчасти - да, отчасти - чем удачнее и органичней будет решена проверочная страница, - её, к  слову, можно вывести на отдельный поддомен без метрики, а потом навигационно возвращать живого пользователя на основной сайт. Посему, пространство для творческих решений здесь довольно обширное и для кого-то получится решить вопрос фильтрации без капчи.


nirvanius #:
P. S. В спорах смысл есть и немалый)) я сам нередко признавал свою точку зрения ошибочной после анализа аргументированных доводов другой стороны. ;) 

Я сам буду рад признать, если будет более полное и более удачное решение, но пока его нет. Пока я вижу старательное нагнетание мнения, что решения нет - с чем я решительно не согласен.  

nirvanius #:
Вот тут могу поспорить, потому как сам часть заказов и покупок оформляю со смартфона

Спорить действительно можно, я лично никаких ответственных покупок со смартфона не делаю и использую смартфон/планшет исключительно для информационного и навигационного серфинга.

Но спор - дело неблагодарное, я лишь ориентирую собственников сайтов и вебмастеров на то, чтобы знать свою ЦА и в зависимости от предпочтений выбирать ту или инфу стратегию в фильтрации паразитного бот трафика. Для кого-то подойдет фильтрация на уровне масок подсети, для кого-то это будет скрупулёзная ручная работа. Паразитный трафик разный и признаки у него разные, поэтому одного одинакового верного решения для всех здесь не будет, я даю лишь общее направление мысли, а там у каждого будут свою нюансы.


nirvanius #:
если я со смартфона из поисковой выдачи перехожу на сайт, а он выкатывает капчу

"С чистого листа" при первичном заходе сайты капчи обычно не запрашивают. А вот поисковые системы, Ютуб в зависимости от частоты использования IP нередко просят капчу и подавляющее число пользователей их заполняет, потому что нужен доступ к сервисам. Такая же логика и здесь. Если пользователю в действительности нужен доступ, он подтвердит своё намерение получить информацию.  

2on2 #:
Анализировали ip через допиленную метрику?

Да.


2on2 #:
Как то сопоставляли с логами сервера?

Нет надобности, в данном случае меня интересовали данные метрики.


2on2 #:
И кто занимался составлением списка IP адресов?

Ответственное лицо, которое берет на себя обязательства снизить нагрузку паразитного трафика и нормализировать поведенческие.


Более подробно можно начинать читать отсюда.

AlexStep #:
Никакой массажер не поможет. Спине нужно нагрузку давать, что мышцы имели должный объем и тонус. Остальное как мертвому кадило.

Именно так. Природу не обманешь, нужна физическая активность и разумные, нормированные физические нагрузки.

edishe #:
Спасибо за разъяснения! Но это не решает проблемы, т.к. трафик идет совершенно с разных IP, тысячами, они никогда не дублируются, т.к. их генерят модемы в бешеном количестве. Тут желательно решение с новыми юзерами, а не создание блэк-списка.

Скажем так, модемы их не генерят, модемы используют лишь доступные в выделенной подсети диапозон рабочих IP-шников. Пробуйте от общего к частному - начинайте с фильтрации подсети.

Коммерческие сайты как правило хорошо знают свою ЦА и своих клиентов. Процент заказов с мобильных операторов у них как правило невысок. Мобильные заходы вообще чаще всего гостевые, но тут конечно зависит от тематики. Вы пробуйте, главное найти баланс в котором возможный паразитный трафик уже не оказывает пагубного влияния.

Это не те боты, это краулеры.

edishe #:
А можно поподробнее о странице-прокладке?

Можно.


edishe #:
Получается вы весь трафик загоняете сначала на проверку?

Нет.


Смотрите. Изначально вы вручную самостоятельно определяете через Вебвизор паразитный заход. Фиксируете его IP (как это вы будете - дело ваше: через серверные логи, через передачу параметра IP в Метрику, либо доп. статистикой - ваше дело). Вы видите, что конкретный IP принёс вам отказной трафик. Через Вебвизор на всякий случай его проверяете, но вообще по типу сети это видно - это мобильные динамические адреса.

Далее. Вы вручную формируете свой black-list. Далее создаете проверочную страницу ("прокладку" если хотите) с проверкой на человека именно на IP-шники в black-list-е.

В некоторых случаях можно фильтровать сразу подсети, например, ко мне нередко заходят из Штатов и портят отказы. Мне эти гости из-за бугра нафик не нужны, поэтому в black-list можно отправить сразу 

подсеть, например, 40.74.0.0 - 40.125.127.255

В результате, на "прокладку" вы отправляете только тот трафик, который идёт с IP-шников, зафиксированных у вас в black-list. Весь остальной трафик - как обычно.

Delysid #:
Если в метрике записи есть то всё дырявое и боты прошли и делают что хотят.

У меня есть ощущение, что проблема в настройках фильтрации и блокировки. Писать в метрику в обход сайта - это что-то новенькое :)

Вообще по-хорошему надо вести статистику блокировки, чтобы понимать фактически какие адреса блокируются. 

edishe #:
Слушайте, мне вообще кажется, что боты эти пишут переходы сразу в метрику в обход сайта.

В Вебвизоре записи этих сессий есть?

Всего: 12574