Ну GPT то же самое делает, только источники как-то сам ищет. По моему списку тоже может пройтись. Получается делают они одно и то же, только подходы немного другие.
А по поводу Gemini у меня параноидальные мысли возникали, что он сможет как-то спалить гуглу, что его генережка была использована на каком-то сайте ))) Если уж он может использовать индекс гугла, то обратная совместимость тоже вполне возможна ))
Ну, например, то, что недавно задавал GPT агенту - "самые доступные и дешевые варианты открытия банковской карты для жителей России для оплаты зарубежных сервисов без поездок зарубеж для её оформления".
Собирайте не мусор.
Не лезть в тему, в которой нет опыта. Как вообще можно заниматься сайтом, в теме которого не разбираешься? )) Это же скука.
Да блин, я уже устал повторять.
ИНСТРУКЦИИ + ВХОДНЫЕ ДАННЫЕ!
У него нет опыта? Скормите ему чужой.
Я уверен, что если посмотреть динамику и по конкретным темам, то там будет схожая картина.
"скачать реферат" - это маркерный запрос всей ниши. И он весьма показателен.
А что мешает в промпте указать, чтобы писал в стиле личного опыта, а не как параграф из учебника?
Это всё поддаётся настройке. Просто не надо считать ИИ всепонимающим. Надо разжевать ему всё по полочкам, каждую важную мелочь.
Генерация, проверка (вычитка), исправления, оформление, поиск/генерация картинок, публикация - где-то около часа-полтора. К этому добавьте создание семантического ядра (без него всё еще никуда), на которое может уйти еще несколько дней.
Можно ускорить генерацию и публикацию, но боюсь качество может пострадать. Я еще не настолько уверен, что ИИ не нагенерирует галлюцинаций. Сколько и чем бы я его не кормил, в каждой статье приходится исправлять какой-то бред (надо попробовать gemini, возможно он дорос уже). А цена ошибки в SEO очень велика - исправить можно что-то быстро, а вот переиндексация и пересчет кармы сайта может занять месяцы (особенно в гугле). Лучше потратить чуть больше времени на публикацию, чем потом всё это разгребать и ждать у моря погоды.
Не интересовался, скорее всего появились. Так и сервисы уже появились, которые генерят тексты пачками. Но у них точно такие же проблемы, как и при полу-ручной генерёжке, а за частую нельзя этот комбайн под себя полноценно настроить.
Я Gemini не особо пользовался, как он это делает? В ChatGPT так-то тоже к поиску есть доступ, но он, если не ошибаюсь, Бингом пользуется.
A Gemini получается просто в мозгах у себя роется и никуда не ходит по сайтам? Как у него это реализовано?
В рамках одной статьи можно кормить всё, главное по делу. Но чем больше ему скормить, тем больше он будет путаться. Так что нужно держать некий баланс. А если кормить ему данные частями, то он не сможет предложить нормальную структуру и связанность.
По моему опыту он спокойно держит контекст в ~5-10 материалов (статьи, транскрипции и тд). И этого часто вполне достаточно.
Не проще, чем что? Источники знаний (контекст) для статьи может быть каким угодно. Проблема в том, что в выдаче переписанные по 100500 раз друг у друга материалы, которые зачастую даже никто не вычитывает. Чем разнообразней и достоверней источники - тем лучше.
Присоединюсь. Каким образом такой промт можно структурировать? Ума не приложу. У меня custom ChatGPT начинают полную хрень уже от 20 страниц выдавать. Половину забывают, путаются в инструкциях, извиняются и опять порят хрен знает что. Или вы по OpenAI API кормите?
Самый простой вариант - разбивать задачу на мелкие шаги. Если инструкций много - разбивать их на отдельные файлы, и при каждом этапе выполнения явно указывать, что надо прочитать инструкции из такого-то приложенного файла. Мелкие инструкции, можно прямо в промпте указывать. Повторить ему правила игры никогда лишним не бывает.
Плюс надо постоянно оттачивать. Если он где-то косячит - спрашивай, почему он сделал так, а не так, как надо было. У меня был случай, ИИ постоянно делал одну и ту же ошибку. Я заколебался его поправлять и уже на эмоциях спрашиваю "да каким тебе еще языком надо сказать, что делать надо вот так, а не так, как ты???"
Ответ меня осенил. Оказывается в моей груде инструкций было два пункта, которые неочевидно для меня были взаимоисключающими и модель коротило от этого по тихому. Исправил, оставил лишь один пункт и с тех пор он эту ошибку уже не повторял.
Короче надо, как в школе, после каждого выполненного задания спрашивать его: