Статьи нейросети для сайта

123
M1
На сайте с 23.11.2019
Offline
44
#11
Нафига очередную помойку создавать. Поведенческие будут гарантированно паршивыми. Информативность такого контента практически нулевая. Не говоря уже о том что править придется много на воду и тошноту. 
havenrock
На сайте с 23.10.2022
Offline
71
#12
Moldovan12 #:
Нафига очередную помойку создавать. Поведенческие будут гарантированно паршивыми. Информативность такого контента практически нулевая. Не говоря уже о том что править придется много на воду и тошноту. 

Что воду, что тошноту, нейронка и сама может убрать, если попросить.

А насчёт "помойки" и "нулевой информативности", кто мешает подправить написанный текст?

Я использую нейросеть для сбора инфы или для выделения главного из кучи гов... текста. Получаю заготовки и всю нужную инфу — переписываю, как мне надо — структуирую — навожу красоту. Это разве "разведение помойки"? Ничем не отличается от прочих инструментов. Или разрабам и кодерам дак можно использовать нейронку, а копирайтерам нет?

Профессионально просиживаю штаны.
b3rsus
На сайте с 09.03.2016
Offline
63
#13
Расскажу про буржнет. Поначалу аишные страницы неплохо залетали в топ (январь-февраль), но после гугло апдейта 15 марта (да, ещё весной) был дроп на 80% по всем ключам. На реддите и бхв народ тоже отмечал массовый дроп, под раздачу попадал даже контент новенькой тогда гпт4 и цеплял даже полностью рукописный. Где-то через месяц кто-то откатился на старые позиции, кто-то нет. Поведенческие были в норме, без скачков.

Между тем, есть примеры где аи помойки крепко в топе. Как были, так и есть. Некоторые после получения доступа к API начали штамповать около 1к страниц в месяц, и они ранжируются неплохо (в серп залетают не все, конечно же). Но это, как правило, уже крепкие ресурсы, которые были в топе до массового применения аи (раньше машинописный контент тоже активно использовали, но он требовал куда больше допиливания и ручной полировки).

Гугл прекрасно видел и видит синтетический контент. Все заверения Гугла типа "мы не против аи" я бы оставил для тех, кто верит в деда мороза, а не в конкурентную борьбу на многомиллиардном рынке онлайн поиска.

Лично я не рискую использовать голый аи контент в продакшене. Есть автоматические решения для пбн, и это круто (авто деплой cms, создание релевантного контента включая картинки, автопостинг, перелинковка), но для продуктовых сайтов это так себе затея.

Но если все же есть такое желание (или необходимость), то вот пара советов:
1. Не используйте ChatGPT через веб интерфейс, только API.
2. Вообще пересмотрите использование моделей OpenAI, есть куда более интересные LLM. Заверения о 128к контекстном окне для gpt4turbo пока лишь красивая сказка.
3. Контент должен проходить несколько стадий редактуры. У нас была система о 16 (шестнадцати!) раундах создания контента.
4. Помните, что существующие публичные LLM очень ограничены в создании качественного даже с сеошной точки зрения контента, например, вставка большого количества заданных ключей, соблюдение верного TF-IDF, и т.п.
5. Сторонние сервисы по генерации "супер годного" контента - как правило, полная фигня. Используйте свою логику, руки и апи.
6. Допускайте орфографические ошибки (без перегиба, конечно).
7. Местами используйте сервисы для рефразинга (они помогают обхитрить детекторы, но зачастую искажают стилистику и содержание).
8. Используйте нормальные детекторы, которые безошибочно определяют основные аи модели (да, такие инструменты есть, проверено).

Помните, что хороший контент - это отличная база (да, именно база) для дальнейшего продвижения.

Успехов!
не хаос
На сайте с 18.10.2021
Offline
48
#14
Какой принцип работы детекторов на ИИ? Ведь гпт использует те же самые речевые обороты взятые у авторов.
Если нет какой-то скрытой маркировки, то каким образом детектор определит различия?

b3rsus
На сайте с 09.03.2016
Offline
63
#15
не хаос #:
Какой принцип работы детекторов на ИИ? Ведь гпт использует те же самые речевые обороты взятые у авторов.
Если нет какой-то скрытой маркировки, то каким образом детектор определит различия?

AI для детекта AI😂

Например, некоторые в базе используют гугловский(!) BERT (bidirectional encoder representations from transformers), натасканный на кастомных датасетах. Работает на всех публичных моделях, ошибки минимальны.

не хаос
На сайте с 18.10.2021
Offline
48
#16
b3rsus #:

AI для детекта AI😂

Например, некоторые в базе используют гугловский(!) BERT (bidirectional encoder representations from transformers), натасканный на кастомных датасетах. Работает на всех публичных моделях, ошибки минимальны.

В принципе, если на вопрос, например, какие фрукты можно замораживать в морозилке, ответ мне даст нейронка, мне будет все равно, по большому счету.

И3
На сайте с 23.03.2011
Offline
218
#17
Moldovan12 #:
Нафига очередную помойку создавать. Поведенческие будут гарантированно паршивыми. Информативность такого контента практически нулевая. Не говоря уже о том что править придется много на воду и тошноту. 

Уровень качества контента в нейросети растет и многое зависит от составления правильных промтов, но все равно нужно делать вычитку контента и удалять ненужный текст. 

D
На сайте с 02.02.2023
Offline
44
#18

Скармливаете чату примеры качественных на ваш взгляд статей, даете ему команду запомнить формат и речевые обороты, а также особенности языка отправленных статей. И он выдает нормальный контент. Но, конечно, гопота - не волшебная палочка и над контентом в любом случае работать надо.

samimages
На сайте с 31.05.2009
Offline
427
#19
Neemiten :
Различают ли вообще поисковики копирайт статьи от нейросетей?

Скажем так,  Яндекс должен отличать, даже пруф есть, но я найти его не могу... на старом Серче помогли бы, на современном, сильно сомневаюсь. Искать нужно доклад Яндекса на английском от 2010-2014 года, на тему математического ожидания появления лемм в тексте. Там на 146% есть прямые ответы на все ваши вопросы.

Базовый смысл в том, что они знают как пишут в русском рунете, что, с одной стороны, не может не давать профита в паливе переводов, с другой стороны, точно должно палить любую нейронку. Базу они добирали дважды за последний период. Видимо наговнопостили столько что пришлось усреднять смещение корпусов)))

Есть ли подобные замуты в Гугле и если есть, то есть ли они для русских корпусов, я не знаю...

Dambo #:
Все мои тексты, написанные лично мною, опознаются как 85% нейросеть.

Неа, нет русских опознавателей, как нет и баз под них, а у кого есть, тот не поделится еще долго))))

Общий посыл поста: ребзя помогите найти доклад)))

Опыт как иммунитет — приобретается в муках! Хостинг: экономия до 1300 руб + домен в подарок ( https://clck.ru/XLscf ) / Аудит семантики от 15К [долго] - ЛС
МА
На сайте с 02.11.2018
Offline
177
#20
b3rsus #:

1. Не используйте ChatGPT через веб интерфейс, только API.

В чём причина такой паранойи? Думаешь, Гугл индексирует тексты из веб-интерфейса? Лол.

Nokia x71 (https://x71.ru/) - хороший смартфон, и отзывы интересные
123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий