Генерация, проверка (вычитка), исправления, оформление, поиск/генерация картинок, публикация - где-то около часа-полтора. К этому добавьте создание семантического ядра (без него всё еще никуда), на которое может уйти еще несколько дней.
Можно ускорить генерацию и публикацию, но боюсь качество может пострадать. Я еще не настолько уверен, что ИИ не нагенерирует галлюцинаций. Сколько и чем бы я его не кормил, в каждой статье приходится исправлять какой-то бред (надо попробовать gemini, возможно он дорос уже). А цена ошибки в SEO очень велика - исправить можно что-то быстро, а вот переиндексация и пересчет кармы сайта может занять месяцы (особенно в гугле). Лучше потратить чуть больше времени на публикацию, чем потом всё это разгребать и ждать у моря погоды.
Не интересовался, скорее всего появились. Так и сервисы уже появились, которые генерят тексты пачками. Но у них точно такие же проблемы, как и при полу-ручной генерёжке, а за частую нельзя этот комбайн под себя полноценно настроить.
Я Gemini не особо пользовался, как он это делает? В ChatGPT так-то тоже к поиску есть доступ, но он, если не ошибаюсь, Бингом пользуется.
A Gemini получается просто в мозгах у себя роется и никуда не ходит по сайтам? Как у него это реализовано?
В рамках одной статьи можно кормить всё, главное по делу. Но чем больше ему скормить, тем больше он будет путаться. Так что нужно держать некий баланс. А если кормить ему данные частями, то он не сможет предложить нормальную структуру и связанность.
По моему опыту он спокойно держит контекст в ~5-10 материалов (статьи, транскрипции и тд). И этого часто вполне достаточно.
Не проще, чем что? Источники знаний (контекст) для статьи может быть каким угодно. Проблема в том, что в выдаче переписанные по 100500 раз друг у друга материалы, которые зачастую даже никто не вычитывает. Чем разнообразней и достоверней источники - тем лучше.
Присоединюсь. Каким образом такой промт можно структурировать? Ума не приложу. У меня custom ChatGPT начинают полную хрень уже от 20 страниц выдавать. Половину забывают, путаются в инструкциях, извиняются и опять порят хрен знает что. Или вы по OpenAI API кормите?
Самый простой вариант - разбивать задачу на мелкие шаги. Если инструкций много - разбивать их на отдельные файлы, и при каждом этапе выполнения явно указывать, что надо прочитать инструкции из такого-то приложенного файла. Мелкие инструкции, можно прямо в промпте указывать. Повторить ему правила игры никогда лишним не бывает.
Плюс надо постоянно оттачивать. Если он где-то косячит - спрашивай, почему он сделал так, а не так, как надо было. У меня был случай, ИИ постоянно делал одну и ту же ошибку. Я заколебался его поправлять и уже на эмоциях спрашиваю "да каким тебе еще языком надо сказать, что делать надо вот так, а не так, как ты???"
Ответ меня осенил. Оказывается в моей груде инструкций было два пункта, которые неочевидно для меня были взаимоисключающими и модель коротило от этого по тихому. Исправил, оставил лишь один пункт и с тех пор он эту ошибку уже не повторял.
Короче надо, как в школе, после каждого выполненного задания спрашивать его:
Есть очень много разных подходов и технических реализаций.
Чат боты уже могут пользоваться поиском, выдёргивать конкурентов из выдачи, парсить их структуру, заголовки, понимать смыслы, вычленять полезную информацию и тд. Всё упирается в инструкции.
Это не говоря еще о модульных ИИ агентах, через тот же N8N, где ИИ может быть лишь одним из десятков, а то и сотен шагов.
Прогони свой текст через 100 AI определяторов - каждый покажет свою оценку и разброс тебя удивит.
Поисковики не оценивают КЕМ написан текст. Они оценивают его КАЧЕСТВО.
Если генерировать тектсы одной кнопкой и бездумно вставлять на сайт - за это не будет позиций. Если прорабатывать промпт, структуру, скармливать модели данные, писать статью частями - шансов больше.
ИИ - это инструмент. Он не может быть плохим или хорошим, он - молоток. С помощью молотка можно дом построить, а можно человека убить. Молоток станет от этого плохим?
И да, вместо тысячи слов, сказанных на форуме, лучше почитай - https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=ru
Абсолютно согласен. Но прошло уже гораздо больше времени и если пол года еще подождать - да не вопрос. Но не факт, что обратный переезд что-то даст, а рисков добавит - это точно.
Каждый месяц всё больше людей вбивает адрес в разных вариациях:
К этому можно прибавить неявные брендовые переходы по названию сервисов, которые уникальны в своём роде, а так же закладочный траф.
Сарафан заработал, народ сам на форумах шарит ссылки. Ну не ахти, как активно, как хотелось бы, но факт есть.
Количество вернувшихся посетителей так же растёт:
Даже месяц был, когда вернувшихся было больше. А значит не только случайно сайт находят и забывают, значит нужны им какие-то сервисы, пользуются.
И делать еще один переезд? Были бы гарантии - может быть подумал.
Было б что терять )))
Я с этого сайта миллионов не зарабатываю, он не коммерческий, чисто сайд квест.
Мне, если честно, интересней сохранить домен и посмотреть насколько еще гугла хватит.
Посетителям по большому счету всё равно, на каком урле он окажется в итоге, но у меня уже спортивный интерес.
Если у кого есть идеи, как еще расшевелить гугл - пишите, буду тестировать и выкладывать периодически какие-то результаты (про их отсутствие тоже писать буду).