Appassionato

Appassionato
Рейтинг
329
Регистрация
22.06.2010
Из сайд-эффектов декабря - гугл похоже простил очень много человеческого спама.

По крайней мере подняла голову часть давно купленных старых сайтов с крайне дерьмовым контентом, но хорошим ссылочным фоном.
manderson #:
они составляли некую часть (не подавляющую) ссылочного веса другого популярного источника, обвалится ли по итогу и он?

Если не подавляющую, то не должно. Да и нужно понимать, что выпиливание из выдачи может происходить/вероятно часто происходит твидлерами, а не самой Джемини.

Твидлер применяется уже непосредственно в серпе. Поэтому в моменте влияние такого бана на акцепторов должно быть близко к нулю. В перспективе же бан даст проседание доноров по другим факторам, и ценность их ссылочного станет близка к нулю.

Если же брать галлюцинации Джемини, то ответ на вопрос: возможно все. Гугл рандом не отменял никто.

ranking factor #:
Прочитать выше нет часу, главное быстренько съязвить?

Прошлую нашу с вами перепалку потерли модераторы. Вовакса забанили на время. Зачем повторять?

manderson #:

А как определили это? Есть какая-то информация из авторитетного источника?

Личные знакомства.

Это все довольно острая информация, поэтому в официальном паблике вы ее практически наверняка не увидите.

Опять же, во многих изданиях журнов/редакторов практически не контролируют (очень большой процент сейчас вообще на удалёнке). И они себе танцуют гпт на свое усмотрение. То есть, даже если даже в политике редакции нет места генеренке, она вполне может быть со стороны нижележащего персонала.

Гпт делает производное (плагиат) от существующего контента.

Мастер/эксперт может высказать свой уникальный опыт. А гпт может только пересказать уже опубликованный чужой опыт.

Нет существующего контента - нет и результата у гпт. И поэтому по мере (неизбежного) вытеснения авторского контента генеренкой качество самой генеренки будет ухудшаться. 

Можно, конечно, в самом промпте скормить гпт свой фактаж - тогда он его добавит. 
Кстати, за счёт конформности, как раз в топ и лезут тексты в стиле "купить мягкую кровлю киев, цены 2025 на которую не так уж высоки".

Просто ллм обучена на таких текстах и считает их показателем хорошего качества (конформности модели) для им.
Тут нужен не вебмастер, а маркетолог.

Но у сферического идеального маркетолога в вакууме входящих данных о векторном соответствии материала интенту меньше, чем у гпт.

Другое дело, что:
А. ллм все равно настроена не на 100 градусов, а в среднем на 80. И тут есть первое окно возможностей для человека.
Б. Эксперт в отличие от гпт может добавить новый фактаж. Который должен в норме бустить ранжирование (согласно официальной позиции Гугла), но в жизни вероятно будет расценен ранжирующей ллм как отклонение от интента с понижением в выдаче. Что логично.

Так вот сейчас тенденция такая, что добавление фактажа помогает ранжированию намного меньше, а возможно и наоборот мешает, чем конформность существующей модели ллм. Вот в этом и секрет успеха гпт, по сравнению экспертным текстом.
Да. Там много функций по теме их версии пейджренка с учётом кликстрима.

Каноничный пейджренк, судя по апи, выпилен чуть менее, чем полностью.
Если верить сливам апи, то вероятно внутренние ссылки без трафика не учитываются или почти не учитываются.

То есть, если эти ссылки не искажают ваш кликстрим и ux, а вас устраивает тот факт, что передаваемый по некликабельным ссылкам вес будет близок к нулю, то можно забить.

Или работать над ux.
С вероятностью 99+% сейчас гугл не оперирует  вм25 и производными алго, а все документы на входе векторизуются для дальнейшей обработки.

Логично, что после векторизации уже нет разницы, кем написан текст - ллм или человеком. Так как в результате этой процедуры текст уже находится внутри ллм и является набором векторов, а не фраз.

Ллм так устроена, что она подбирает выходные вектора согласно входным. Джемини будет с генеренкой делать обратную операцию. Но так как это уже по сути математика нс, оценка генеренки и человеческого текста будет отличаться на уровне погрешности сравнения текстов с помощью ллм.

Иными словами, будет идти сравнение только промпта и интента. А следов человека в тексте после его векторизации уже нет.

Остальная магия - это навбуст. Который возможно/вероятно Гугла заставят выпилить после отделения хрома от альфабета. Вот тогда и начнется самое интересное :)

А сейчас - строго говоря, если юзер жрет ллмное говно и доволен его вкусом (а как показала практика, 95% довольны вкусом Нестле :), то навбуст будет толкать его наверх.

Но при этом ллм напишет текст строго под промпт и интент - при чем соответствия именно в понимании ллм. То есть, гпт лучше человека знает, как его текст будет оценивать Джемини, и в итоге генеренка в красивой обложке и ранжируется лучше текстов, написанных людьми.

Всего: 3239