Новая эпоха использования инструментов AI. Для качественных сайтов это не возбраняется.
Вопрос только в том, как, в каком виде и для каких целей. И вот здесь возникают градации - где AI контент работает в плюс, а где дело доходит до того, что сайт пессимизируют.
Так может быть падение и (что особо важно - невозвращение) было ввиду многих доп. причин. А порнозапросы, хоть и стали доп. источником отказов, но были лишь дополнением к общей картине.
Думаю, после того, как трафик с порнозапросам сошёл на нет, ранжирование не стало восстанавливаться. Так ведь? Не ошибаюсь?
Значит ситуация с порнозапросами лишь сопутствующий фактор.
Я бы не торопился с выводами, для более ясно картины, конечно нужно иметь доступ в статистику, понимать какая была видимость запросов, как она колебалась, какой характер бот трафика.
Там может быть целый букет условий, поэтому важно избегать категоричных суждений, нужно быть в контексте рабочих данных сайта.
Учитесь конкретно читать вопросы и вникать в суть ответов.
Тема озаглавлена "Как защититься от негативной накрутки пф" и поэтому вопрос разбирается в комплексе со всеми возможными условиями.
Поэтому важно следовать не эмоциями и выдергивать из контекста, а разбираться, что в конкретно имеется ввиду не только авторами, но и отвечающими.
Постоянно переходите на личности и провоцируете на конфликт.
Отвечаю по сути.
В самом начале, в самом первом посте есть указание на условия влияния поведенческого фактора. Иллюстрирую, если пропустили и не прочитали.
Пример нерелевантный, вы сами крутите позиции в плюс, нивелируя тем самым переходы по нетематическим запросам и их отказы.
Речь не об этом совершенно.
Рассматривать можно и нужно только тот сайт, который сам не крутит.
А на сильный топовый сайт, который сам крутит целевые запросы, здесь вопросов нет, нетематические заходы/запросы действительно влиять не будут.
Повторюсь, всё зависит от конфигурации поведенческих самого сайта. Сайт сайту - рознь и степень влияния бот трафика на них принципиально разные.
Это факт, реальные отказы и бот отказы (если они фиксируются в Метрике как отказные сессии) суммируются в общее значение отказов.
Это элементарно может проверить каждый.
Можно, конечно, можно. Алгоритмы - это чистая математика: если значениям релевантности можно увеличивать, то можно и уменьшать.
Если поведенческие боты фиксируются в Вебвизоре, увеличивают отказы по целевым запросам и увеличивают общие отказы вплоть до 40% и выше, то такой сайт Яндекс выше ранжировать не будет. Это очевидно.
Если данные фиксируются в Метрике как пользовательские заходы, то они смешиваются с вашими рабочими данными. Фактически не влияет только то, что попадает в категорию "роботности" - вот они действительно не влияют.
Всё, что фиксируется в пользовательских сессиях - влияет в той или иной степени (в зависимости от конфигурации ваших поведенческих сигналов).
Не только у вас, тенденция к наплыву бот трафика не только сохраняется, но и с февраля месяца усиливается.
Такое, увы, было и будет всегда.
Не понятно почему определение "Orphan Pages/страницы-сироты" вызвало такие гыгыкания во взрослом возрасте.
Потому что кто-то не сталкивался с этим понятием, и эмоции бегут впереди выводов.
Много где об этом есть информация.
Например, здесь.
Здесь нужно понимать, что в реальности таких запросов для внутренних страниц нет. С приходом спеца - они появятся.
Формально - это самый распространённый маркер накрутки. Фактически - это зачастую срабатывает, но никто не даст гарантий, что завтра или позднее не последуют санкции.
Эксперт по ПФ не будет использовать такое лобовое решение "ключ + бренд", для массы внутренних страниц это однозначно явно попытка накрутки.
Хороший специалист будет работать с контекстными хвостами по микрочастотным запросам - вот такой трафик имеет место быть.
Там скорее дело не в анализаторе, а в том как эти ссылки формируются - может там через js или ещё что то ссылки ставятся. Поэтому в коде их и нет
Соб-но, я об этом и написал, что дело в анализаторе.
Наверняка эти ссылки появляются после рендера, а в сыром raw html коде их нет.