Или вы не понимаете, о чем я пишу.
ЧСВ для ИИ тоже надо добавить. А то нехорошо как-то. У человека оно есть, а у ИИ нет.
Вы вырываете из контекста, как ИИ.
В первом случае имеется в виду, что уровень сложности "мышления" ИИ не превышает таковой у животных. Сложность мышления с инстинктом выживания не связаны. И объединять их по признаку "в обоих случаях речь идет о животных" нелепо.
"Инстинкт выживания" можно описать и для амебы, у которой нет нервной системы вообще.
В том и дело. Нет у сегодняшнего ИИ анализа, абстракций, логики, сравнения, наглядно-образного мышления. Он дрессированное животное, не более. Что все это дать ему, надо понять как это происходит у человека. Может быть поход от обратного: смотреть как "развивается" ИИ и понимать суть мышления человека. Как оно развивалось в процессе эволюции.
Планируете за это время встроить в ИИ инстинкт выживания? Чтобы хотел, чтобы у него было все как можно лучше, больше, совершенней и бесконечную жизнь? Понятие ценности самосохранения в него заложите? А дальше как в природе, путем естественного отбора, один из миллиардов ИИ выживет, остальные будут GPT для рерайтеров и картинки ржачные генерить.
Мда. Почему ИИ, имея все знания мира, умея комбинировать их, до сих пор еще не поставил точку в теории всего из физики, не пришел к однозначной теории происхождения жизни, не спрогнозировал реальное развитие тех или иных систем, не вычислил формулы лекарств, способных лечить болезни.
Вместо этого мы видим комбинаторику бульдога с носорогом и получается "творчество", которое к реальности и практическому смыслу, рациональности, опоре на законы реального мира отношения не имеет.
Проблема носит именно принципиальный характер.
Он вообще не может что-то понимать. Практически ведь это не магия какая-то, а обычная (ну ладно, не совсем обычная, как её проходили на первом курсе универа, но всё же) статистика и комбинаторика.
Я говорил о понимании в переносном смысле. Если буквально: не может распознать.
Сомневаюсь, что UML диаграмму нарисует по заданному словесному описанию.
Или выделит из текста понятия и изобразит схему их взаимосвязи. Например: в тексте есть "млекопитающие", есть "грызуны", есть "мышь". Простейшая задача: изобразить иерархию групп. В GPT должно быть заложено понимание, что есть обобщение чего. Потому как из самого текста этого вытекать не будет. А выводы он делает от балды
Школота ЕГЭ с его помощью стопудово на все 100 баллов сдаст
Кроме того GPT не может обобщить, что мыши - это грызуны. Он берет категорию меньшую - семейства, но с точки зрения логики, если ты пишешь отряд хоботные, до доводи мышей до грызунов.
Уровень вопроса - школьный. GPT этого не понимает. Иначе тоже не мельчил по семействам.
Всю эту криворукость может заметить только чел хоть как-то разбирающийся в теме. Простой рерайтер - нет. Для него GPT - находка.
Если бы вы профессионально разбирались в какой-то области, вы бы понимали о чем речь: сайты с использованием инфы, которую генерит GPT, не смогут удержать аудиторию (обеспечить ее возврат) . А делать сайты нынче не имея знаний в теме этого сайта, не взаимодействуя с аудиторией - это гарантия никогда не выйти в топы. Но какой-то траф снизов видимо все еще можно грести. И видимо с такими сайтами борется GPT.
Выдача должна быть профессиональной и экспертной. Это если говорить о гугле. Все остальное (краткие ответы, справочная инфа) - GPT.
Если ты дошел только до GPT рерайта - значит и сайты у тебя такие же.
Картинки тебе тоже GPT рисует и страницу оформляет так, чтобы юзер сразу узрел общее с переходом к частному.
Или у вас сайты отвечают на вопросы элементарных понятий и определений, на которые без проблем отвечает GPT и Википедия.
Но копни чуть глубже и GPT несет бред. Если вы не видите этого бреда, значит простецкие вопросы ему задаете.