GreenLis

GreenLis
Рейтинг
106
Регистрация
20.01.2017
Интересы
Агрегация, систематизация и переработка информации
Vladimir SEO #:
у вас есть графики из консоли с кликами для молодых сайтов с пиками ?

К сожалению доступа уже нет. Инфа условно месячной давности.

Vladimir SEO #:
где можно наблюдать такой механизм - в какой нише и регионе ?

Я такое ловил в инфо (пересечение образовательной и развлекательной тематик) и коммерческой (комплектующие к тяжмашу), гео - условно СНГ. Кидает буквально на 1-2 клика страницу в топ, потом выкидывает за топ-20-30, потом через какое-то время в зависимости от других факторов стабилизируется в пределах топ10-20 и медленно "съезжает" если ничего не делать со страницей и доменом.

kokocuk #:

В основном у всех одна картина - многолетние сайты смыло в унитаз без каких-либо причин

https://twitter.com/LifeAfterMyPhD/status/1769620224461189336

У меня есть теория. (не стоит недооценивать силу тупизны)

Ширина удовлетворения поискового кластера является одним из факторов ранжирования домена, частота добавления материалов - также. ПС оценивает страницу исходя из большого количества показателей, большей части мы не знаем, но можно сказать точно - как минимум есть семантический анализ текста, и есть механизм подмешивания в топ выдачи совсем "зелёных" сайтов для оценки ПФ и релевантности.

Если посмотреть на эти новые ai-помойки с точки зрения машинного восприятия информации, они выгоднее - шире закрывают поисковые кластеры, чаще добавляют новые страницы. Текст может там и труден для восприятия, но мы забываем, что этоон трудночитаем для человека, а для машины он как раз хорош, хотя бы за счёт использования большего количества слов семантически связанных с изначально ранжируемым запросом. Нафига тратить ресурс краулера на человеко-созданные небольшие проекты, если можно просто сканировать ai-помойки? Тем более, когда они появляются одна за одной каждый день, по каждой теме? Чтобы сделать вывод о её, помойке, качестве, сначала её надо полностью просканировать и бросить частью в топ выдачи, чтобы проанализировать реакцию реальных пользователей. Если у этой помойки десятки тысяч страниц, а самих таких помоек сотни тысяч - вот и получаем сокращение краулингового бюджета на старые проекты, постоянное перемешивание выдачи, стабильное падение позиций у всех старых проектов, кроме тех, что более-менее держатся на плаву за счёт постоянной аудитории и гигантского ссылочного.

https://www.seroundtable.com/google-march-2024-core-spam-update-movement-37061.html

Для тех кто понимает английский, или не ленится копировать в отдельное окно с переводчиком, комментарии могут быть интересны.
Booch24 #:
Я таки склоняюсь, что у них что-то слетело,  потому как понять что происходит с поиском не получается. Туда наоборот спам залетел и ии-контент. Часто нерелевантная помойка из не пойми чего

Обновление всё ещё идет, и будет идти до мая включительно.

От всех не закроете. Можно собрать правила для наиболее часто встречающихся ботов.

User-agent: Google-Extended
Disallow: /

User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /

User-agent: CCBot
Disallow: /

User-agent: PerplexityBot
Disallow: /

User-agent: ChatGenie
Disallow: /

User-agent: Jasper.ai
Disallow: /

User-agent: AnthropicBot
Disallow: /
User-agent: anthropic-ai
Disallow: /

User-agent: Claude
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: Claude-Web
Disallow: /

User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /

User-Agent: FacebookBot

Disallow: /
User-agent: PiplBot

Disallow: /
User-agent: Amazonbot

Disallow: /
User-agent: OmgiliBot
Disallow: /
User-Agent: omgili
Disallow: /

User-agent: cohere-ai
Disallow: /

User-agent: TurnitinBot
Disallow: /

User-agent: PetalBot
Disallow: /

User-agent: MoodleBot
Disallow: /

User-agent: magpie-crawler
Disallow: /

User-agent: ia_archiver
Disallow: /

User-Agent: YandexAdditional
Disallow: /

При этом следует понимать, что часть этих правил влияет на т.н. "быстре ответы от нейросети", которые присутствуют в серпе сразу после поисковой строки и дают некоторое количество трафика взамен на использование вашего контента не только для удовлетворения пользователя, но и для тренировки весов самой LLM.

UPD: можно реализовать по-другому - запретить сканы всем, кроме известных стандартных ботов-краулеров ПС. Опять же, от сотен появляющихся каждый год LLM не спасёт.
Priyanka_del_Rio #:

Есть ли смысл писать в  ФАС?

Ноль. Это всё реализовано в рамках принятой стратегии на монополизацию рынка крупнейшими компаниями, управляющимися лицами аффилированными с текущим высшим политическим руководством.

Priyanka_del_Rio #:
Как диверсифицировать?

Ютуб, соцсети, мэссенджеры. Если не планируете менять сферу деятельности - нужно пересматривать контент-стратегию, делать упор на брендирование, если позволяет тематика. Просто писать статьи в надежде на траф с ПС больше не работает. Анализируйте запрос клиента, решайте "боли", работайте с аудиторией. Если думаете "сбежать" в бурж - то без смены парадигмы это не на долго вас спасёт, там ситуация не сильно отличается.
https://www.adweek.com/programmatic/googles-gen-ai-search-threatens-publishers-with-2b-annual-ad-revenue-loss/

Роман Кузьминский #:
Отмечу, что Яндекс не манипулирует позициями сайтов и страниц по ключевым словам и не продаёт места в выдаче.

Так в открытую врать конечно только яндексоиды могут. 

Очевидно, что с яндекса стоит редирект на дзен.

Очевидно, что присутствуют в выдаче наворованные контент-макаками дзеновскими десятки тысяч страниц с разных сайтов, и ранжируются украденные статьи выше самих этих сайтов, с которых украдено. Да, конечно, вы можете написать жалобу в дзен и их удалят, тем временем ещё сотня макак за неделю сворует у вас ещё три сотни статей. Давайте, пишите жалобы каждый день по 2-3 часа.

Очевидно, компания Яндекс выполняет условия договора, по продаже части сервисов в компанию ВКонтакте. Но нет, конечно же яндекс "не манипулирует позициями сайтов и страниц по ключевым словам и не продаёт места в выдаче". Это называется "исполнение обязательств в рамках заключённого договора, предполагающих предоставление определённого количества трафика и разнообразных seo-сигналов домену-реципиенту для оптимизации показателей ранжирования в рамках действующих алгоритмов поисковой системы".

Для кого я это всё пишу? Для зелёных вебмастеров, у которых периодически возникают какие-то неадекватные вопросы к представителю компании Яндекс на этом форуме. Задавать вопросы, касающиеся преференций яндекса по отношению к его бывшим или текущим сервисам бессмысленно, ну только если вы не просто хотите пар спустить. Лучше потратьте время и возмущение на диверсификацию трафика.

https://www.adweek.com/programmatic/googles-gen-ai-search-threatens-publishers-with-2b-annual-ad-revenue-loss/

В целом, если гуглоиды ставят целью высвобождение мощностей под тренировку LLM, хранение баз данных и генерацию - текущие апдейты могут весьма удобно позволить "почистить" не только откровенный мусор, но и большое количество конкурентов в выдаче, а их контент скормить своему SGE.
Махмуд Аббас #:


Да Мюллер троллит сеошников, очевидно же. Сглаживает градус типа, чтоб уж сильно пуканы не пылали.

Да, там ему в твиттере указывали на это вроде, вчера уже на ночь читал - плохо помню. Примечателен сам факт: что G, что Я - каждый по своему набедокурил с выдачей, и достаточно существенно.

Я вот думаю, балансировка трёхточечной системы всегда стабильнее. Из присутствующих в теме у кого какие позиции и качество выдачи в bing? Может массово на своих ресурсах сделаем флеш-моб с призывом к аудитории использовать этот поисковик в качестве альтернативы? 

Всего: 485