GreenLis

GreenLis
Рейтинг
106
Регистрация
20.01.2017
Интересы
Агрегация, систематизация и переработка информации
alaev #:

Аудитория давно отупела

Да она всегда была такой, камон.

Просто за последние 10 лет доступ в сеть получили практически все на территории РФ. Смотрят с удовольствием "Слово пацана" и ржут на словом "функция" из-за страха показаться тупыми - чего от них хотеть-то? Решений дифференциальных уравнений в уме и адекватной критики теорий Ломброзо?
80% популяции кроме удовлетворения базовых потребностей и эндорфинной стимуляции (как мышки в тестах, которые жмут на кнопки с помощью которых активируется электрическим импульском через электроды подключённые к мозговой коре "область удовольствия") не имеют интереса, если он не привит до 5-6 лет.

https://twitter.com/CyrusShepard/status/1770120657445220563?t=qON-NuUnrGZY3hv3n4UbpA

Тред с комментами чувака, недавно уволенного из рядов оценщиков качества сайтов в G-выдаче.

На особые инсайты не рассчитывайте, но пара интересных комментов есть.

Vladimir SEO #:
у вас есть графики из консоли с кликами для молодых сайтов с пиками ?

К сожалению доступа уже нет. Инфа условно месячной давности.

Vladimir SEO #:
где можно наблюдать такой механизм - в какой нише и регионе ?

Я такое ловил в инфо (пересечение образовательной и развлекательной тематик) и коммерческой (комплектующие к тяжмашу), гео - условно СНГ. Кидает буквально на 1-2 клика страницу в топ, потом выкидывает за топ-20-30, потом через какое-то время в зависимости от других факторов стабилизируется в пределах топ10-20 и медленно "съезжает" если ничего не делать со страницей и доменом.

kokocuk #:

В основном у всех одна картина - многолетние сайты смыло в унитаз без каких-либо причин

https://twitter.com/LifeAfterMyPhD/status/1769620224461189336

У меня есть теория. (не стоит недооценивать силу тупизны)

Ширина удовлетворения поискового кластера является одним из факторов ранжирования домена, частота добавления материалов - также. ПС оценивает страницу исходя из большого количества показателей, большей части мы не знаем, но можно сказать точно - как минимум есть семантический анализ текста, и есть механизм подмешивания в топ выдачи совсем "зелёных" сайтов для оценки ПФ и релевантности.

Если посмотреть на эти новые ai-помойки с точки зрения машинного восприятия информации, они выгоднее - шире закрывают поисковые кластеры, чаще добавляют новые страницы. Текст может там и труден для восприятия, но мы забываем, что этоон трудночитаем для человека, а для машины он как раз хорош, хотя бы за счёт использования большего количества слов семантически связанных с изначально ранжируемым запросом. Нафига тратить ресурс краулера на человеко-созданные небольшие проекты, если можно просто сканировать ai-помойки? Тем более, когда они появляются одна за одной каждый день, по каждой теме? Чтобы сделать вывод о её, помойке, качестве, сначала её надо полностью просканировать и бросить частью в топ выдачи, чтобы проанализировать реакцию реальных пользователей. Если у этой помойки десятки тысяч страниц, а самих таких помоек сотни тысяч - вот и получаем сокращение краулингового бюджета на старые проекты, постоянное перемешивание выдачи, стабильное падение позиций у всех старых проектов, кроме тех, что более-менее держатся на плаву за счёт постоянной аудитории и гигантского ссылочного.

https://www.seroundtable.com/google-march-2024-core-spam-update-movement-37061.html

Для тех кто понимает английский, или не ленится копировать в отдельное окно с переводчиком, комментарии могут быть интересны.
Booch24 #:
Я таки склоняюсь, что у них что-то слетело,  потому как понять что происходит с поиском не получается. Туда наоборот спам залетел и ии-контент. Часто нерелевантная помойка из не пойми чего

Обновление всё ещё идет, и будет идти до мая включительно.

От всех не закроете. Можно собрать правила для наиболее часто встречающихся ботов.

User-agent: Google-Extended
Disallow: /

User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /

User-agent: CCBot
Disallow: /

User-agent: PerplexityBot
Disallow: /

User-agent: ChatGenie
Disallow: /

User-agent: Jasper.ai
Disallow: /

User-agent: AnthropicBot
Disallow: /
User-agent: anthropic-ai
Disallow: /

User-agent: Claude
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: Claude-Web
Disallow: /

User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /

User-Agent: FacebookBot

Disallow: /
User-agent: PiplBot

Disallow: /
User-agent: Amazonbot

Disallow: /
User-agent: OmgiliBot
Disallow: /
User-Agent: omgili
Disallow: /

User-agent: cohere-ai
Disallow: /

User-agent: TurnitinBot
Disallow: /

User-agent: PetalBot
Disallow: /

User-agent: MoodleBot
Disallow: /

User-agent: magpie-crawler
Disallow: /

User-agent: ia_archiver
Disallow: /

User-Agent: YandexAdditional
Disallow: /

При этом следует понимать, что часть этих правил влияет на т.н. "быстре ответы от нейросети", которые присутствуют в серпе сразу после поисковой строки и дают некоторое количество трафика взамен на использование вашего контента не только для удовлетворения пользователя, но и для тренировки весов самой LLM.

UPD: можно реализовать по-другому - запретить сканы всем, кроме известных стандартных ботов-краулеров ПС. Опять же, от сотен появляющихся каждый год LLM не спасёт.
Priyanka_del_Rio #:

Есть ли смысл писать в  ФАС?

Ноль. Это всё реализовано в рамках принятой стратегии на монополизацию рынка крупнейшими компаниями, управляющимися лицами аффилированными с текущим высшим политическим руководством.

Priyanka_del_Rio #:
Как диверсифицировать?

Ютуб, соцсети, мэссенджеры. Если не планируете менять сферу деятельности - нужно пересматривать контент-стратегию, делать упор на брендирование, если позволяет тематика. Просто писать статьи в надежде на траф с ПС больше не работает. Анализируйте запрос клиента, решайте "боли", работайте с аудиторией. Если думаете "сбежать" в бурж - то без смены парадигмы это не на долго вас спасёт, там ситуация не сильно отличается.
https://www.adweek.com/programmatic/googles-gen-ai-search-threatens-publishers-with-2b-annual-ad-revenue-loss/

Роман Кузьминский #:
Отмечу, что Яндекс не манипулирует позициями сайтов и страниц по ключевым словам и не продаёт места в выдаче.

Так в открытую врать конечно только яндексоиды могут. 

Очевидно, что с яндекса стоит редирект на дзен.

Очевидно, что присутствуют в выдаче наворованные контент-макаками дзеновскими десятки тысяч страниц с разных сайтов, и ранжируются украденные статьи выше самих этих сайтов, с которых украдено. Да, конечно, вы можете написать жалобу в дзен и их удалят, тем временем ещё сотня макак за неделю сворует у вас ещё три сотни статей. Давайте, пишите жалобы каждый день по 2-3 часа.

Очевидно, компания Яндекс выполняет условия договора, по продаже части сервисов в компанию ВКонтакте. Но нет, конечно же яндекс "не манипулирует позициями сайтов и страниц по ключевым словам и не продаёт места в выдаче". Это называется "исполнение обязательств в рамках заключённого договора, предполагающих предоставление определённого количества трафика и разнообразных seo-сигналов домену-реципиенту для оптимизации показателей ранжирования в рамках действующих алгоритмов поисковой системы".

Для кого я это всё пишу? Для зелёных вебмастеров, у которых периодически возникают какие-то неадекватные вопросы к представителю компании Яндекс на этом форуме. Задавать вопросы, касающиеся преференций яндекса по отношению к его бывшим или текущим сервисам бессмысленно, ну только если вы не просто хотите пар спустить. Лучше потратьте время и возмущение на диверсификацию трафика.

Всего: 487