Я просил конкретную настройку, связанную со скликом конкурентов, а не отдельных элементов :)
Неочевидно.
Накрутка позволяет улучшить поведенческие целевого сайта, что и даёт эффекта обгона. Конечно, при нагуле профилей конкуренты могут опосредованно получать часть сигналов, которые ухудшают их поведенческие, но так, чтобы внятно какая-то часть бюджетов тратилась на накрутку, а какая-то на пессимизацию конкурентов - это скорее из разряда вольных домыслов.
у пользователя сервисом будет статичный ключ, который он добавит в метрику.
Пользователи и ботоводы будут видеть зашифрованные get-параметры, которые включают в себя ключ
Даже если представить схему отработки ключей как рабочую - вы так и не ответили по каким принципам будете производить отсев.
Это как раз ключевое в общем механизме работы.
1) То, что видит ботовод и то, с чем потом работают профили с разными IP-шниками - дело разное.
Ботовод вручную не просматривает тысячи, сотни, - да даже десятки рабочих сессий, ботовод работает с контрольными для себя признаками.
Если мы говорим о нагуле, то для него главное отработка по сайтам с Метрикой, если профиль формируется и отрабатывает, то задача выполнена.
Если профиль не отрабатывает, то ботовод начинает искать причины. Чаще всего, повторюсь, ботовод просто отсеивает проблемные сайты и собирает перечни из незащищённых сайтов. Обходить капчи и персональные защиты - это ресурсы, это деньги. Отработка по одному сайту - это, условно, порядковая доля от стоимости одной проверки антикапч сериcа.
2) Куда он и что отправляет? Накликать в серпе по запросам - да, может, но мы не про серп мы про Метрику.
В моём случае, если я фильтрую подсеть, то без загрузки Метрики текущий заход никуда не попадает.
Эту "дырку" насколько я знаю пофиксили. Лишних данных я там не встречаю.
Вот нехватку посещений в Метрике встретить можно, ибо они могут банится по поведенческим.
Подход понятен, ключевые факторы для отсева пока неизвестны.
В общем виде - разбираться с теми аномалиями, которые возникают.
В общем и в целом, решения уже есть и они как правило связаны с фильтрацией (в том или ином виде) через конкретные подсети с которыми работает ботовод.
Повторюсь, ботоводу проще зарабатывать на менее затратных способах, чем персонально валить какой-то сайт и постоянно менять тех. хар-ки, подстраиваясь под ответные действия целевого сайта. В это случае, даже если её представить - многоступенчатая работа требует привлечения доп. ресурсов, а значит изменения условия первоначальной стоимости.
Приведите пожалуйста хотя бы один скриншот указывающий на такую настройку.
В целом, вы предлагаете идею защиты от скрутки поведенческих. С этим разобрались.
Наброски реализации пока такие:
1. Устанавливаем скрипт на странице сайта
2. При загрузке страницы скрипт собирает данные пользовательского устройства и запроса. Отправляет на сервер сервиса, который по разным параметрам проверяет пользователя на фальшивость и возвращает ответ.
Здесь принципиально "что" и "как" вы будете проверять.
Многие сервисы типа whoer тоже проверяют настройки анонимности. Но современный софт с поддержкой работы браузера и с профилями вполне успешно их проходят. Вы готовы делать это более совершенно? Как?
А верификация ключа будет происходить автоматически?
По-моему, слишком избыточно.
Мы с программистом реализовали модуль, который для сомнительных подсетей выводит капчу и просто не грузит Метрику.
Проверка пройдена - добро пожаловать, не пройдена - бот так и остаётся елозить по странице без учёта данных в Метрике.
Но если ботовод поймал блокировку, то он может искать решение ее обойти. А еще может поймать код счетчика вручную и прописать выполнение js на выполнение счетчика.
На стороне ботовода видно, успешная была работа бота или нет
Может, но в большинстве случае - это избыточно, потому что требует доп. ресурсов со стороны ботовода.
Ботоводу всегда проще пропустить проблемный сайт и просто взять пачку незащищённых сайтов, чем ковыряться с тем, кто создает проблемы.
1) Бот ничего не видит, он выполняет заложенные инструкции.
2) Оператор бота работает по своим задачам и отрабатывает логи бота. В зависимости от задач корректирует настройки бота.
Задачи могут быть весьма разные от скликивания рекламных бюджетов Директа до накрутки поведенческих.
Что вы предлагаете в качестве новой альтернативы я так и не понял. В чём ваше УТП?
Верно. Очень хорошее и ценное дополнение. Подписка и возможность систематических платежей от ЦА - ключевой фактор.
Думаю, что без правильной презентации и заинтересовать никого не получится.
Разве, что поддерживающей команде продать.. в рассрочку 😎
По умному, надо рассчитывать эту и остальные экономические метрики, делать презентацию c описанием модели бизнеса, формировать оффер, продвигать его и собирать входящие предложения.
Без всего этого, увы, пальцем в небо.
Нет никакого авторитета автора, есть раскрученность (накрученность ) автора. В яндекс ответах это хорошо было видно, скорее всего поэтому они от них практически отказались ( улетело из топа)
Так же как и раскрутка бренда, просто пользуйтесь этим
Хорошая оговорка. Равно как и нет никакой авторитетности сайта, есть его медийная распространённость и общественно-значимая востребованность.
Впрочем и само понятие "цитирование" пришло их научных кругов.
Так что тут всё довольно понятно, кто действует, тот "наращивает".
Потом делим пополам, вычитаем хотелки и оставляем то, за что реально могут купить.
p.s. А если серьёзно, то рабочий бизнес не продают.
Если некогда - находят/растят своих управляющих и сохраняют актив. А если со сторонним управляющим он не управляем, то это проблемный бизнес.
От общей тенденции зависит. Если с ПФ работать перестанут, а естественного трафика будет не хватать - вернется, - в этом случае только объединять.
Но это касается частного случая "белых" и "светлых", что действительно очень близко, а вот по поводу всего остального - там более очевидные различия.
Интернет-магазин. Около 10% страниц - категорий Яндекс выбирает не верную страницу по запросу. К примеру, есть "светлые сковороды", а есть "белые сковороды". Очевидно, что светлые, это не только белые, но и бежевые, молочные итд, т.е. это более широкая подборка, но Яндекс почти всегда ставит в выдачу по ключу "светлые сковороды" именно белые. Аналогично вместо "длинные столы" ставит "высокие столы", а это совсем разные подборки. И как результат низкие позиции. В Гугле по запросам выдаются правильные страницы.
Как яндексу "объяснить" какая страница соответствует конкретному запросу?
Дело в схожести интентов, который Яндекс может смешивать.
Если условно, пользователь набирает "светлая сковородка" и в результате выбирает белую, то сами понимаете поиск пытается подмешать в выдачу и белые сковородки, которые могут быть на отдельной странице.
В целом нужно:
а) более явно и содержательно описывать посадочные страницы
б) прокачивать поведенческие для тех страниц, которые более точно отвечают заданному интенту.
Например, у вас посадочная А - "белые" и посадочная B - "светлые" (бежевые, молочные и т.д.) - прокачиваете поведенческие с низко- и микрочастотными запросами, например, "светлые бежевые сковородки купить" т.е. чтобы в запросе присутствовало слово "светлая" и далее накапливаете покупки, где в пуле запросов присутствует маркерное слово (в данном случае - "белая").
Со временем релевантность будет выравниваться для нужной посадочной.
И спроса на них нет? Не может быть такого. В маленьких городах спроса может и не быть, но в больших городах спрос определённость есть.
Спецы тоже ищут информацию в сети.
Смотрите конкурентов, они вам должны быть известны.