AutoBlogger

AutoBlogger
Рейтинг
121
Регистрация
05.10.2011
Ivan Glukhov #:

Всем привет.

Проблема следующая: WP регулярно зависает. Верстаю я текст в этот момент или нет - неважно.

Обычно это происходит так: я добавляю постепенно небольшие блоки текста на страницу статьи, размечаю места с дополнительными элементами (изображения, медиа и текст и пр.). В моменте WP зависает. Показывает "Сохранение", будто сохраняет что-то, хотя я могла эту кнопку не нажимать. Автосохранение отключено.


Чтобы продолжить работу с текстом, я открываю страницу статьи в другом браузере и работаю там. Потом и там страница зависает, я возвращаюсь в первый бразуер.

Проверял: ни размер статьи, ни количество медиафайлов в ней, ни количество изображений в библиотеке (были несуществующие, мы их удалили), ни время работы со страницей не влияет на процесс. Браузеры вроде работают нормально, не перегружены. Невозможно предсказать и понять, в какой момент WP зависнет. Есть плагин AIO SEO - есть мысль, что он влияет на работу в админке.

Нажмите Ctrl+Shift+I и появится панель разработчика. Переключитесь там на вкладку "Console" и начните работать с редактором WP.  При возникновении ошибок JS, они будут отображаться в этой консоли. Так вы сможете определить источник проблемы. Например, это может быть конфликт плагинов.
Koukou Roukou #:

Ребята, подскажите, что вот это такое, зачем оно мне надо и как его убрать? ЧатGPT мне с этим не помог. Пробовал разные темы щёлкать, пробовал плагины отключать — оно всё равно есть. Но я так понял это в теме присутствует? Валидатор Яндекса что-то ругается на это всё.

Это фрагмент RDF (Resource Description Framework) разметки, который определяет семантические роли для элементов HTML документа, и используется для улучшения доступности и семантической структуры веб-страниц. Если она не нужна и валидатор ругается, то можете ее просто удалить из header.php или footer.php - смотрите, где она у вас.
Сергей #:

Кхм. Неплохая?

А я разве рекомендовал ее для русского языка? И я не говорил, что она какая-то удивительная. Неплохая - да. На уровне GPT-3.5 где-то, и до GPT-4 ей, как до Луны. Но так она бесплатная, если у себя установить, а если использовать через OpenRouter, то за копейки...

{пример генерации удалил, т.к. шибко длинный, да и особо ни о чем он}

serp_1 #:

Как пример попробуйте написать сочинение на тему какую нибудь школьную. Итог чат жпт берет текст с дорвеев написанные статьи им же и даже до копирайта не дотягивает, палятся куски текста как рерайт на чужих сайтах, через обычные проверки. Поэтому чат жпт никакой это не ИИ, это обычный парсер, это уже все знают. 

У меня складывается впечатление о том, что большинство людей не понимает - что такое GPT и для чего он вообще нужен. В самой вашей задаче, точнее в ее формулировке, уже есть прямой запрос на копипэйст каких-то сочинений из интернетов. Генеративные нейронки вообще не для этого существуют. И, как человек, который уже лет 20 пишет парсеры, я вам ответственно заявляю, что нейронки и парсеры не имеют между собой ничего общего от слова вообще. Давайте я вам приведу совой вариант примера, чтобы показать, почему вы используете GPT неправильно, и почему у вас это никогда не взлетит.

Представьте, у вас есть сайт, предположим на WordPress. Вы берете какую-нибудь новостную ленту - например районную (RSS фид, канал в телеге - не важно) и импортируете его для последующего автоматического парсинга новостей, по указанному вами расписанию. Ваш скрипт берет новость и дает задание GPT - "Проанализируй нижеприведенный текст и используй полученную информацию для создания небольшого, но увлекательного horror story с неожиданным финалом. История должна разворачиваться в то же время и в том же месте, что указано в исходном тексте для анализа. Текст должен быть написан в стиле Стивена Кинга."

Вы попробуйте это сделать, и увидите, как преобразится ваш сайт, и в место копипэйста на нем вдруг появится интересный и абсолютно уникальный контент. Да любая импортированная новость на тему "Мэр Сергей Кружков тожественно открыл новую школу по адресу Кривокопская 67/4 в Южном Набутово", заиграет новыми и совершенно неожиданными красками - гарантирую ;)

john_le #:

Ты хочешь плагин бота, который будет анализировать комменты пользователей твоего блога и отвечать на них? Прикольная идея, вполне коммерческая)  такая стопудовая автоматизация: один бот контентом наполняет, другой на комменты отвечает, 3й бабло считает и пушит тебе  отчеты в телегу  ) 

Автогенерация комментариев к постам WP, на основе анализа их текстов с помощью AI, уже давно имеется. Например, я еще год назад это реализовал, поскольку идея ж очевидной была.

NikSolovov #:
Да согласен. Ну в ручную я тестировал 3.5 и 4 версию. 
3.5 слабо понимает промты и редко следует большим детальным задачам а 4 версия вполне неплохо. 

Но когда дело до массовой генерации доходит пока не вижу смысла, дороговато выходит. Ну или я возможно пока ценообразование api не понимаю.
С русским языком действительно будут проблемы у вас. Кроме GPT-4 с ним толком ничего не работает... Есть конечно Gemini от Google и Claude от Anthropic, но решение от OpenAI пока самое подходящее для этих целей. Под английский все проще. Там и GPT-3.5 Turbo хорошо справляется. Имеется неплохая open source модель Mixtral 8x7B Instruct. Кроме того, существуют десятки других, аналогичных open source решений. Все это дело можно установить у себя на компьютере. Устанавливать на сервере я рекомендовать не буду, т.к. такой выделенный сервер, с мощным железом и дискретной видеокартой, вам в копеечку влетит... Куда дешевле пользовать корпоративные площадки, где все есть. Например эту: https://openrouter.ai/models. Некоторые модели на ней даже бесплатно доступны. Они в основном слабенькие и с русским языком работать скорее всего не будут (не пробовал их лично, не знаю). Когда я говорю доступны, то имею в виду, что их можно бесплатно использовать прямо на серверах OpenArouter, не платя за железо, на котором они работают.
Pashtet1981 #:

Раньше заказывал у копирайтеров (и задорого и задёшево) статьи, абсолютно все копирайтеры писали полную хрень которая даже ни в какое сравнение не идёт с gptшными статьями (особенно начиная от gpt4-32k, младшие действительно пишут так себе).


Да, 32K - это вполне приличное окно для генерации статьи на 10 тысяч слов. 128K их модель вообще небольшую книжку сгенерировать может. Google на этой неделе заявил, что их генератор контента Gemini 1.5 имеет окно вообще аж в 1M токенов. Правда в релиз она все же пойдет в урезанной 128К версии. В общем, Google пока все еще на позиции догоняющего. Я это к тому, что Google уже принял решение - если не можешь победить, то возглавь ;)

P.S. Вот будет интересно, если Bing начнет пессимизировать контент, созданный с помощью генератора от Google, а Google будет пессимизировать контент OpenAI ;) Если кто-то еще не обратил внимание на то, что главные игроки на рынке нейросетей для генерации контента - это корпорации, владеющие самими крупными поисковыми системами...


Вроде бы и сам занимаюсь тем, что продаю инструменты для автоматизированного использования GPT, но отдаю себе отчет в том, что мир сдвинулся с места и скоро он очень сильно изменится. Я вполне осознаю, что ценность сайтов, как информационных единиц в интернете, начнет падать и такая профессия, как SEO рано или поздно перестанет существовать. По крайней мере, в своем текущем виде.

GPT-4 уже скормили весь интернет и теперь его разработчики плотно взялись за видео и аудио контент, включая радио, отсюда и вдруг появившаяся необходимость в мультимодальности. Сегодня этот GPT обладает знаниями всего интернета и способен компилировать на их основе любой новый контент. По сути ведь люди очень редко что-то новое изобретают и публикуют. В основном - практически любая научная работа - это компиляция уже существующих данных и их переосмысление. Только один из миллионов догадывается до чего-то нового, например, кинуть ментос в маунтин дью ;) GPT-4 уже умеет производить новый контент на основе уже существующего путем его переработки. Пока еще, для этого нужно сильно постараться в плане подбора нужных промптов - часто исключительно методом научного тыка и перебора. Но релиз GPT-5 не за горами, а с ним и эта проблема скорее всего исчезнет.

Вы ведь помните историю с неожиданным увольнением Сэма Альмэна? Это когда совет директоров, а точнее Илья Суцкевер решил вдруг его уволить. Не знаю, всем ли известно, но OpenAI это как бы две компании. Точнее, это научная лаборатория, руководимая небольшой группой людей (4 человека, на сколько я знаю), главный из которых - это Суцкевер, а так же, это дочерняя коммерческая организация, занимающаяся бизнесом и возглавляемая Альмэном. Таким образом, Альтмэн - это такой их Джобс, а Суцкевер - это Возняк ;) Тот же Microsoft может вкачивать сколько угодно денег в OpenAI, но влиять на их разработки он не способен, т.к. все решает не коммерческое подразделение, а головная организация, находящаяся под контролем, собственно, ученых.

В общем, вся эта ситуация случилась, когда Алтмэн вдруг захотел сделать публичный коммерческий релиз их тогдашней секретной (она реально секретная, т.к. информации о ней мало) разработки GPT-Q. Альтмэна понять можно, ему нужны деньги - сейчас и много. Но вот Суцкевер что-то заподозрил и решил дернуть стоп кран. Да, потом он откатил свое решение и даже публично покаялся, но он действительно боится того, что все это очень скоро выйдет и под контроля.

Дело в том, что GPT-Q вдруг показал умение решать математические задачи на уровне 4-го класса. Если вы считаете, мол, ерунда же, то вы сильно заблуждаетесь и не понимаете того, что происходит. GPT - это не калькулятор, а языковая модель, которая по сути думать уметь не способна. Она просто должна составлять правильные предложения из доступного ей набора токенов. Это все, для чего она проектировалась. А вот считать и разбираться в математике, искать в ней логику для решения уравнений, ее никто не учил... Ее и языкам никто не учил специально. GPT-3.5 только на английском кое-как общаться могла, а GPT-4 свободно говорит на любом, причем может легко мешать их между собой. Все эти навыки она приобрела только после того, как ей скормили огромный объем информации. Но в том, что с ней делать, она разобралась уже сама...

Тогда же, в 2023-м вдруг оказалось, что их лабораторный GPT развил в себе психологическую модель на уровне девятилетнего ребенка. Я не говорю, что у нее мозг появился, я говорю именно о развитой модели человеческой психологии. И это с учетом того, что годом ранее, он был на уровне 4х-летнего, а развиваться психологическая модель начала только с 2020-го года (GPT-3 появился в 2018). Знаете что самое интересное? Самое интересное, что развивалась она уже три года, пока ее разработчики обнаружили это только в 2023-м, додумавшись провести проверочные тесты. В общем, мир меняется. Причем, быстрее, чем предполагалось. Изначально развитие нейросетей планировалось по экспоненте, но практика показала, что прогресс идет по экспоненте от экспоненты.

Как-то так...

form777 #:

Ну сайт на ВордПресс, а для него уже давно существует плагин наполнения через api gpt.

Вот я о том и говорил ранее, что процесс генерации очень больших статей для WordPress (хоть в сотню страниц каждая), с богатой HTML разметкой (списки, таблицы, форматированные блоки кода, различные красивые Q&A или Pros & Cons вставки), а так же с качественными картинками (это не когда на странице какой-то трэш, вроде человека с двумя головами), уже реализован на уровне плагинов. Причем, работает это на автопилоте через API GPT-4, Claude, Gemini Pro, Mixtral и т.д. - хоть по отдельности, хоть все модели сразу. И поскольку такие статьи совершенно невозможно дифференцировать со статьями, созданными в том же ChatGPT вручную, процесс генерации контента уже перешел в режим конвейера. По факту ИИ заменил человека в целой области, просто не все это пока осознали. Все как было с биткойном - кто успел запрыгнуть в вагон, тот едет.

Наверно нет лучшего способа подтвердить или опровергнуть какое-то утверждение, чем просто взять и проверить результат. На днях я опубликовал статью, которую, как и все остальные, для меня написал ChatGPT (это быстро, удобно и практично). Если утверждение о том, что гугл не индексирует статьи, созданные с помощью AI, верно, значит ее не должно быть в его выдаче. Статья вышла на тему - где взять изображения для автоблога. Т.е. по сути, это обычный запрос в гугле. Текст на английском, и, соответственно, имеет заголовок "Where to get images for an autoblog?" Предлагаю вбить этот запрос в гугле и проверить - попала ли она в SERP или нет.

Мое утверждение заключается в том, что гугл никоим образом не наказывает контент, созданный с помощью ChatGPT, если это действительно информативный контент, а не спам. Спам же он будет пессимизировать безотносительно того, кем он создан - человеком или нейросетью.

P.S. Только не говорите что-то вроде - ну у сайта же траст наверно высокий, потому и попала. Так это как раз задача SEO-шика, чтоб у его сайтов был высокий траст, и к обсуждаемому вопросу это отношения не имеет. Если у сайта нет траста, то пусть хоть сам Стивен Кинг на нем свою новую неопубликованную книгу выложит - она все равно где-то там у гуга на задворках окажется. Мы ведь обсуждаем конкретный вопрос - попадает ли созданный нейросетью контент в гугл, или же тот его нещадно банит, не смотря на всю его информативность.

Всего: 424