Вот с этим большие проблемы.
Если раньше Яндекс мог запалить по факту использования различных сервисов и программных признаков, то сейчас это довольно затруднительно. Все конкурентные топы обходятся и нагуливаются накрутчиками т.е. у всех у них есть признаки бот трафика. Банить всех - ломать топы, скажется на качестве.
Современная накрутка не только не использует профиль/браузер владельца, а принципиально другое железо, поэтому инициатора выявить довольно проблематично. Банят обычно по завышенным аномалия в CTR значениях из поиска, да и то когда это даже невооруженным глазом видно.
А так Яндексу в принципе плевать кто себе что крутит, формально сайт в кондициях - не хай будет в топе.
Вот для двух среднеконкурентных сайтов в низконкурентной среде более проказательно.
Если условно говоря, сайт А вышел по низконкурентному запросу в топ без накрутки и имеет с данного запроса условно 5 переходов в неделю, то такой же (по качественным составляющим) сайт B, который для нагула, а потом для последующей накрутки к тем 5 естественным ещё нагуляет 5 отказных заходов на сайт А и добавит позитивные поведенческие себе, то сайт А в связи с более чем 50% отказами пойдет вниз, а сайт B пойдет вверх.
Асессоры проверяют фактические признаки. Если эти признаки не проходят проверку, то значит сайт не такой уж белый и вылизанный.
Для полноты рефлексий я перефразирую - можно ли в частном порядке загубить деятельности компании - везде рассказывая, что компания из рук вон плохая?
Наверное, при огромной мотивации, необходимых ресурсах и уйме затраченных денег можно.
Также и с ботами, если вы генерируете 1/10000 проблемных признаков, то 9999/10000 их перекроют.
Но если у вас есть возможность в первом случае влиять на числитель, то шансы увеличиваются.
p.s. Но также имейте ввиду, что у конкретного бизнеса есть возможность влиять на знаменатель, а у крупных - на порядки значений.
Ну, не скажите, ситуации бывают разные.
В целом, справедливо выражение - не подмажешь, не поедешь.
Если взглянуть на эту тему шире, то любые рекламные активности базируются на гипертрофированнии потребительской ценности. Простой пример. Открывается магазин, товар - такой же как у всех, не более, не менее.
Планируется рекламная компания и для неё временно назначается акция, на вход вешаются шарики, арендуют аниматоров, матюльники, раздают листовки. Всё делается для того, чтобы переключить внимание и утрировать ценность. И вроде бы все всё понятно, но в этом случае народ идёт, а не сделай этого - посетителей будут единицы.
Как только народ пошёл, касса делает выручку - бизнес компенсирует затраты на рекламную кампанию.
Поэтому в градациях возможностей бизнесу всегда нужны способы если не быть, то как минимум "выглядеть" лучше конкурентов.
Так вот с позиции поисковых алгоритмов работает имитация "востребованности" c помощью ботов.
И раз алгоритмы значимо на это реагируют, что будут продолжать это делать.
Кому-то и не надо. Тут всё от поставленных задачи и рабочих обстоятельств зависит.
Да, формально вы правы, но сейчас нет таких фильтров как были ровно 10 лет назад, именно поэтому накрутка сейчас так популярна и в ряде случаев без неё нет вариантов вообще.
Да, мысль резонная, поэтому те, кто крутят грубо и бездумно (а купить бот трафик сейчас может любой), то здесь довольно высокие риски потерять ранжирование для домена.
Но, скажем так, проф. рабочая методика по накрутке она базируется на поступательном развитии поведенческих сигналов, подстраиваясь под естественную рабочую динамику и здесь при умелых манипуляциях их различить (алгоритмически) практически невозможно.
Ботам никто не вредит, боты - это запрограммированные рабочие последовательности: зайти на сайт, перейти на страницу, выполнить скроллинг и т.д.
Думаю вы не совсем точно задали вопрос. Ботами могут вредить.
Но на самом деле "вредить" - понятие довольно многогранное. Любая бизнес деятельность в борьбе за рынок со стороны одного игрока рынка вредит конкурентам, ибо перераспределяет ресурсы. С этой позиции конкуренцию внутри замкнутого круга конкурентов можно назвать взаимным вредительством :)
Поведенческие - это целый ряд факторов, далеко не один.
Поведенческие работают независимо от тематики.
Всё определяется конкуренцией, в конкурентных темах вы не сможете продолжительное время удерживать топовые позиции без необходимого объёма поведенческих.
Это вы воспринимаете данную методику как попытку "повышения до уровня людей".
Тем, кому понятно, как работает алгоритм не воспринимают это так попытку очеловечивания. Любой трафик (хоть человеческий, хоть ботовый) - это цифры. Алгоритмы работают с цифрами и считают результат.
В реалиях бизнеса сайт попадёт и удержится в топах, если у сайта будет постоянный поток нужных ему переходов. В стартовом варианте этих переходов нет, так как и сайт не в топе, и нужного объёма переходов в естественном виде может не быть, поэтому ботами производят имитацию, что как будто есть и направляют на нужный сайт. Яндекс видит, что у сайта есть спрос и начинает поднимать его в выдаче.
От какого именно тренда?
От того, что в Яндексе уже более 5-ти лет в конкурентных темах продвигаются, используя накрутку поведенческих факторов.