Раньше заказывал у копирайтеров (и задорого и задёшево) статьи, абсолютно все копирайтеры писали полную хрень которая даже ни в какое сравнение не идёт с gptшными статьями (особенно начиная от gpt4-32k, младшие действительно пишут так себе).
Да, 32K - это вполне приличное окно для генерации статьи на 10 тысяч слов. 128K их модель вообще небольшую книжку сгенерировать может. Google на этой неделе заявил, что их генератор контента Gemini 1.5 имеет окно вообще аж в 1M токенов. Правда в релиз она все же пойдет в урезанной 128К версии. В общем, Google пока все еще на позиции догоняющего. Я это к тому, что Google уже принял решение - если не можешь победить, то возглавь ;)
P.S. Вот будет интересно, если Bing начнет пессимизировать контент, созданный с помощью генератора от Google, а Google будет пессимизировать контент OpenAI ;) Если кто-то еще не обратил внимание на то, что главные игроки на рынке нейросетей для генерации контента - это корпорации, владеющие самими крупными поисковыми системами...
Вроде бы и сам занимаюсь тем, что продаю инструменты для автоматизированного использования GPT, но отдаю себе отчет в том, что мир сдвинулся с места и скоро он очень сильно изменится. Я вполне осознаю, что ценность сайтов, как информационных единиц в интернете, начнет падать и такая профессия, как SEO рано или поздно перестанет существовать. По крайней мере, в своем текущем виде.
GPT-4 уже скормили весь интернет и теперь его разработчики плотно взялись за видео и аудио контент, включая радио, отсюда и вдруг появившаяся необходимость в мультимодальности. Сегодня этот GPT обладает знаниями всего интернета и способен компилировать на их основе любой новый контент. По сути ведь люди очень редко что-то новое изобретают и публикуют. В основном - практически любая научная работа - это компиляция уже существующих данных и их переосмысление. Только один из миллионов догадывается до чего-то нового, например, кинуть ментос в маунтин дью ;) GPT-4 уже умеет производить новый контент на основе уже существующего путем его переработки. Пока еще, для этого нужно сильно постараться в плане подбора нужных промптов - часто исключительно методом научного тыка и перебора. Но релиз GPT-5 не за горами, а с ним и эта проблема скорее всего исчезнет.
Вы ведь помните историю с неожиданным увольнением Сэма Альмэна? Это когда совет директоров, а точнее Илья Суцкевер решил вдруг его уволить. Не знаю, всем ли известно, но OpenAI это как бы две компании. Точнее, это научная лаборатория, руководимая небольшой группой людей (4 человека, на сколько я знаю), главный из которых - это Суцкевер, а так же, это дочерняя коммерческая организация, занимающаяся бизнесом и возглавляемая Альмэном. Таким образом, Альтмэн - это такой их Джобс, а Суцкевер - это Возняк ;) Тот же Microsoft может вкачивать сколько угодно денег в OpenAI, но влиять на их разработки он не способен, т.к. все решает не коммерческое подразделение, а головная организация, находящаяся под контролем, собственно, ученых.
В общем, вся эта ситуация случилась, когда Алтмэн вдруг захотел сделать публичный коммерческий релиз их тогдашней секретной (она реально секретная, т.к. информации о ней мало) разработки GPT-Q. Альтмэна понять можно, ему нужны деньги - сейчас и много. Но вот Суцкевер что-то заподозрил и решил дернуть стоп кран. Да, потом он откатил свое решение и даже публично покаялся, но он действительно боится того, что все это очень скоро выйдет и под контроля.
Дело в том, что GPT-Q вдруг показал умение решать математические задачи на уровне 4-го класса. Если вы считаете, мол, ерунда же, то вы сильно заблуждаетесь и не понимаете того, что происходит. GPT - это не калькулятор, а языковая модель, которая по сути думать уметь не способна. Она просто должна составлять правильные предложения из доступного ей набора токенов. Это все, для чего она проектировалась. А вот считать и разбираться в математике, искать в ней логику для решения уравнений, ее никто не учил... Ее и языкам никто не учил специально. GPT-3.5 только на английском кое-как общаться могла, а GPT-4 свободно говорит на любом, причем может легко мешать их между собой. Все эти навыки она приобрела только после того, как ей скормили огромный объем информации. Но в том, что с ней делать, она разобралась уже сама...
Тогда же, в 2023-м вдруг оказалось, что их лабораторный GPT развил в себе психологическую модель на уровне девятилетнего ребенка. Я не говорю, что у нее мозг появился, я говорю именно о развитой модели человеческой психологии. И это с учетом того, что годом ранее, он был на уровне 4х-летнего, а развиваться психологическая модель начала только с 2020-го года (GPT-3 появился в 2018). Знаете что самое интересное? Самое интересное, что развивалась она уже три года, пока ее разработчики обнаружили это только в 2023-м, додумавшись провести проверочные тесты. В общем, мир меняется. Причем, быстрее, чем предполагалось. Изначально развитие нейросетей планировалось по экспоненте, но практика показала, что прогресс идет по экспоненте от экспоненты.
Как-то так...
Ну сайт на ВордПресс, а для него уже давно существует плагин наполнения через api gpt.
Вот я о том и говорил ранее, что процесс генерации очень больших статей для WordPress (хоть в сотню страниц каждая), с богатой HTML разметкой (списки, таблицы, форматированные блоки кода, различные красивые Q&A или Pros & Cons вставки), а так же с качественными картинками (это не когда на странице какой-то трэш, вроде человека с двумя головами), уже реализован на уровне плагинов. Причем, работает это на автопилоте через API GPT-4, Claude, Gemini Pro, Mixtral и т.д. - хоть по отдельности, хоть все модели сразу. И поскольку такие статьи совершенно невозможно дифференцировать со статьями, созданными в том же ChatGPT вручную, процесс генерации контента уже перешел в режим конвейера. По факту ИИ заменил человека в целой области, просто не все это пока осознали. Все как было с биткойном - кто успел запрыгнуть в вагон, тот едет.
Наверно нет лучшего способа подтвердить или опровергнуть какое-то утверждение, чем просто взять и проверить результат. На днях я опубликовал статью, которую, как и все остальные, для меня написал ChatGPT (это быстро, удобно и практично). Если утверждение о том, что гугл не индексирует статьи, созданные с помощью AI, верно, значит ее не должно быть в его выдаче. Статья вышла на тему - где взять изображения для автоблога. Т.е. по сути, это обычный запрос в гугле. Текст на английском, и, соответственно, имеет заголовок "Where to get images for an autoblog?" Предлагаю вбить этот запрос в гугле и проверить - попала ли она в SERP или нет.
Мое утверждение заключается в том, что гугл никоим образом не наказывает контент, созданный с помощью ChatGPT, если это действительно информативный контент, а не спам. Спам же он будет пессимизировать безотносительно того, кем он создан - человеком или нейросетью.
P.S. Только не говорите что-то вроде - ну у сайта же траст наверно высокий, потому и попала. Так это как раз задача SEO-шика, чтоб у его сайтов был высокий траст, и к обсуждаемому вопросу это отношения не имеет. Если у сайта нет траста, то пусть хоть сам Стивен Кинг на нем свою новую неопубликованную книгу выложит - она все равно где-то там у гуга на задворках окажется. Мы ведь обсуждаем конкретный вопрос - попадает ли созданный нейросетью контент в гугл, или же тот его нещадно банит, не смотря на всю его информативность.
Непонятно только, откуда трафик на такого консультанта вы брать собираетесь о_О
OpenAI GPT Store, не? 🙃
Люди бьются за позицию в выдаче местного поиска и за количество пользователей. Все то, что раньше было в гугле. На этих вот AI площадках SEO 2.0 будет. Кстати, OpenAI вроде как авторам еще и какую-то денежку платить за использование их GPTs обещает...
Это почему? Зачем производители товаров должны платить гуглу за рекламные показы своих ссылок, зачем им платить комиссию афилейтам, если можно занести деньги прямо в OpenAI, ну или тому, кто чрез пару лет станет топовым AI чатом? Почему покупателю не зайти в условный ChatGPT, рассказать ему о своих пожеланиях, получить список наиболее подходящих продуктов, узнать цены, подробные характеристики, попросить предоставить сравнительные таблицы этих самых параметров относительно альтернативных товаров, уточнить всякие вопросы, получить персональные инструкции и рекомендации, и, собственно, сделать покупку в нем же? Эта схема ведь уже там работает. Ну пока может не так хорошо, но так вы учитывайте, что этот ChatGPT только в ноябре 2022 на свет появился. А тут еще и конкуренты вроде того же Барда подтягиваются...
В общем, пока GPT работает, причем неплохо, для SEO, его нужно пользовать. Потом будет... "потом" ;)
P.S. В ChatGPT уже есть функция для подключения его к любому вашему внешнему API - как раз чтобы продавать что-то. Вот вам схема: cоздайте своего custom GPT там (это бесплатно), сделайте из него толкового консультанта, например, по Amazon или Яндекc Маркету, и толкайте через него товары со своей реферальной ссылкой. Не благодарите ;)
Это, к сожалению, случается и довольно часто. Google, например, пытается исправить ситуацию, выпустив модель Gemini 2.1, которая как раз таки является попыткой избавить от галлюцинаций Gemini 2.0. Тут ведь все дело в том, что нейронки - это не роботы. У роботов галлюцинаций не бывает, т.к. они действуют согласно четким инструкциям, aka алгоритму. Нейронные же сети похожи на человеческий мозг, и их работа - это по сути и есть то, что называется процессом управляемой галлюцинации.
С учетом того, что все ныне популярные ИИ модели очень молоды (GPT-3.5 меньше года, не говоря уже про GPT-4), а работа над этими франкенштейнами ведется очень интенсивно, то происходит то, что происходит. Это нормально, и рано или поздно, решение найдется. Но, все же, по аналогии с человеческим мозгом - чем система сложнее, тем более вероятен шанс отклонений. Умные и творческие люди ведь тоже в большинство своем - личности не сильно здоровые в психическом плане... Да и торчат эти нейронки на "веществах" не хуже людей. Я имею в виду их систему поощрений. По сути, это тот же наркотик. Когда систему хорошо поощряют, она лучше "соображает" и сильней "старается", но если модель "пердознуть", то она может начать нести всякую чушь, в надежде получить очередную награду в еще больших количествах.
Запретить ChatGPT выдумывать несуществующие факты, можно путем простой директивы в промпте: "выдавай только достоверную информацию и не придумывай ее, если не знаешь точного ответа". Кроме того, уменьшить вероятность галлюцинаций можно с помощью снижения температуры (у каждой ИИ модели есть такой параметр). И снова, тут как у людей - чем выше температура, тем больше шанс того, что пациент впадет в бредовое состояние. Температура равная нулю, сводит галлюцинации на нет, но она, так же укручивает и креативность модели до уровня робота Вертера. В ChatGPT нет доступа к параметрам настройки модели, но те, кто работает с GPT через API, и так осведомлены об этих нюансах.
P.S. Открою меленький секрет. Некоторые наверно замечали, что ChatGPT иногда вдруг резко тупеет. На самом деле, это самое "иногда" обычно приходится на релиз очередной модели или новой фичи, что приводит к резкому росту нагрузки на сервера OpenAI со стороны любознательных пользователей. И тут обычно появляется та самая надпись - "мы ведем работы по масштабированию наших серверов". Именно она и предшествует очередному "отупению" их моделей. Им просто урезают мощности (укручивают параметры и блокируют часть функционала), чтобы избежать падения серверов от непомерной нагрузки.
Если ваш плагин такие же неопределяемые тексты выдаёт, куплю всё что есть.
Я про свой продукт тут ничего говорить больше не буду, т.к. администрация на это реагирует крайне негативно и трактует однозначно, как рекламу. Здесь вообще слово "мой" перед названием продукта или ни дай бог ссылкой, использовать запрещено. Я как-то неудачно пошутил на этом форуме, ответив кому-то в стиле: "У Yandex Translate качество перевода как себе, рекомендую вам использовать мой DeepL"). В результате, получил бан на неделю "за спам", т.к. администрация посчитала, что я являюсь владельцем сервиса онлайн перевода DeepL. И нет, я не шучу, это реальная история ;)
И вот эта белиберда определяется как 100% human written. Браво! Хочу научиться так же промты составлять. Take my money :)
А зачем вам нужно, чтобы белиберда определялась, как human written? Я белиберду не читаю, мне информация в статьях нужна. Гуглу тоже надо, чтобы статьи были информативными, а люди их читали. Спам может быть 100% human written, но гугл его ведь все равно забанит. Вы обратили внимание, что Гугл сейчас свой Gemini активно тестирует? Он для чего его коммерческую версию с API создает? За что деньги с пользователей брать собирается? Как он его целевой аудитории втюхивать будет?
Вы на секундочку хоть задумайтесь, почему Гугл позиционирует свой же ИИ, как инструмент, который должен помогать людям писать тексты. Наверно для того, чтобы потом их пессимизировать с формулировкой: это не 100% human written контент. Не покупайте доступ к нашему Google Gemini, чтобы использовать его по назначению, т.е. для создания статей, потому что ПС Google ненавидит Google Gemini *вотэтоповорот* Судя по вашей логике именно по этой модели работает успешный современный бизнес в условиях капитализма 🙃