big boy

big boy
Рейтинг
358
Регистрация
18.11.2006
Должность
webmaster
truebusiness #:
Подскажите плиз по опыту, сколько у вас времени уходит на создание статьи в 3к слов например?

Генерация, проверка (вычитка), исправления, оформление, поиск/генерация картинок, публикация - где-то около часа-полтора. К этому добавьте создание семантического ядра (без него всё еще никуда), на которое может уйти еще несколько дней.

Можно ускорить генерацию и публикацию, но боюсь качество может пострадать. Я еще не настолько уверен, что ИИ не нагенерирует галлюцинаций. Сколько и чем бы я его не кормил, в каждой статье приходится исправлять какой-то бред (надо попробовать gemini, возможно он дорос уже). А цена ошибки в SEO очень велика - исправить можно что-то быстро, а вот переиндексация и пересчет кармы сайта может занять месяцы (особенно в гугле). Лучше потратить чуть больше времени на публикацию, чем потом всё это разгребать и ждать у моря погоды.

truebusiness #:
Не появились ли нынче на рынке AI копирайтеры, которые дешевле и быстрее пишут качественные тексты?

Не интересовался, скорее всего появились. Так и сервисы уже появились, которые генерят тексты пачками. Но у них точно такие же проблемы, как и при полу-ручной генерёжке, а за частую нельзя этот комбайн под себя полноценно настроить.

Сергей про е-ком #:
Но на новой версии меня Gemini победило как минимум доступом к базе знаний поискового индекса

Я Gemini не особо пользовался, как он это делает? В ChatGPT так-то тоже к поиску есть доступ, но он, если не ошибаюсь, Бингом пользуется.

A Gemini получается просто в мозгах у себя роется и никуда не ходит по сайтам? Как у него это реализовано?

truebusiness #:
  • Один раздел (заголовок) - отдавать данные только для этого раздела? 
  • Или можно все необходимые данные для написания статьи отдать одним сообщением?
  • В рамках одной статьи можно кормить всё, главное по делу. Но чем больше ему скормить, тем больше он будет путаться. Так что нужно держать некий баланс. А если кормить ему данные частями, то он не сможет предложить нормальную структуру и связанность.

    По моему опыту он спокойно держит контекст в ~5-10 материалов (статьи, транскрипции и тд). И этого часто вполне достаточно.

    truebusiness #:
    Не проще ли условно спарсить контент 5-6 лучших статей конкурентов.

    Не проще, чем что? Источники знаний (контекст) для статьи может быть каким угодно. Проблема в том, что в выдаче переписанные по 100500 раз друг у друга материалы, которые зачастую даже никто не вычитывает. Чем разнообразней и достоверней источники - тем лучше.

    Сергей про е-ком #:
    gem-бот с базой знаний
    В чем отличия и плюсы/минусы по сравнению с Custom GPT?
    truebusiness #:
    У AI есть память, которая быстро заканчивается. И AI начинает забывать про правила, про которые вы упоминали ему ранее. Говоришь не делать одно, через 15 сообщений он может случайно "забыть" и сделать то, что вы запрещали ему ранее.
    Пользуйтесь платными тарифами, где нет ограничений на память и открывается возможность создания custom gpt и api.
    LikeAVirgin #:

    Присоединюсь. Каким образом такой промт можно структурировать? Ума не приложу. У меня custom ChatGPT начинают полную хрень уже от 20 страниц выдавать. Половину забывают, путаются в инструкциях, извиняются и опять порят хрен знает что. Или вы по OpenAI API кормите? 

    Самый простой вариант - разбивать задачу на мелкие шаги. Если инструкций много - разбивать их на отдельные файлы, и при каждом этапе выполнения явно указывать, что надо прочитать инструкции из такого-то приложенного файла. Мелкие инструкции, можно прямо в промпте указывать. Повторить ему правила игры никогда лишним не бывает.

    Плюс надо постоянно оттачивать. Если он где-то косячит - спрашивай, почему он сделал так, а не так, как надо было. У меня был случай, ИИ постоянно делал одну и ту же ошибку. Я заколебался его поправлять и уже на эмоциях спрашиваю "да каким тебе еще языком надо сказать, что делать надо вот так, а не так, как ты???"

    Ответ меня осенил. Оказывается в моей груде инструкций было два пункта, которые неочевидно для меня были взаимоисключающими и модель коротило от этого по тихому. Исправил, оставил лишь один пункт и с тех пор он эту ошибку уже не повторял.

    Короче надо, как в школе, после каждого выполненного задания спрашивать его:

    1. Почему ты допускал такие-то ошибки?
    2. Как сделать так, чтобы в будущем этого не повторялось?
    truebusiness #:
    Я конечно совсем не понимаю, как обучают/настраивают AI. Но как скармливание семантики влияет на результат статьи?

    Есть очень много разных подходов и технических реализаций.

    Чат боты уже могут пользоваться поиском, выдёргивать конкурентов из выдачи, парсить их структуру, заголовки, понимать смыслы, вычленять полезную информацию и тд. Всё упирается в инструкции.

    Это не говоря еще о модульных ИИ агентах, через тот же N8N, где ИИ может быть лишь одним из десятков, а то и сотен шагов.

    truebusiness #:
    Подскажите плиз, как скармливать модели данные и обучать AI? Как выглядит этот процесс? Есть ли официальные/стандартные подходы данного процесса?
    Можно начать со ссылки из моей подписи в качестве отправной точки.

    Прогони свой текст через 100 AI определяторов - каждый покажет свою оценку и разброс тебя удивит.

    Поисковики не оценивают КЕМ написан текст. Они оценивают его КАЧЕСТВО.

    Если генерировать тектсы одной кнопкой и бездумно вставлять на сайт - за это не будет позиций. Если прорабатывать промпт, структуру, скармливать модели данные, писать статью частями - шансов больше.

    ИИ - это инструмент. Он не может быть плохим или хорошим, он - молоток. С помощью молотка можно дом построить, а можно человека убить. Молоток станет от этого плохим?

    И да, вместо тысячи слов, сказанных на форуме, лучше почитай - https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=ru

    MsTanya #:
    На напрасных надеждах можно еще полгода потерять. Как минимум.

    Абсолютно согласен. Но прошло уже гораздо больше времени и если пол года еще подождать - да не вопрос. Но не факт, что обратный переезд что-то даст, а рисков добавит - это точно.

    Каждый месяц всё больше людей вбивает адрес в разных вариациях:

    К этому можно прибавить неявные брендовые переходы по названию сервисов, которые уникальны в своём роде, а так же закладочный траф. 

    Сарафан заработал, народ сам на форумах шарит ссылки. Ну не ахти, как активно, как хотелось бы, но факт есть.

    Количество вернувшихся посетителей так же растёт:


    Даже месяц был, когда вернувшихся было больше. А значит не только случайно сайт находят и забывают, значит нужны им какие-то сервисы, пользуются.

    И делать еще один переезд? Были бы гарантии - может быть подумал.

    MsTanya #:
    потерять

    Было б что терять )))

    Я с этого сайта миллионов не зарабатываю, он не коммерческий, чисто сайд квест.

    Мне, если честно, интересней сохранить домен и посмотреть насколько еще гугла хватит.

    Посетителям по большому счету всё равно, на каком урле он окажется в итоге, но у меня уже спортивный интерес.

    Если у кого есть идеи, как еще расшевелить гугл - пишите, буду тестировать и выкладывать периодически какие-то результаты (про их отсутствие тоже писать буду).

    MsTanya #:
    Потому что для SEO он уже тогда не годился. 
    Он под SEO никогда не использовался. С первого дня был лендинг и до последнего.
    Всего: 2841