Зачастую ИИ не может делать правильные выводы в банальных вопросах, все исходные данные для которых есть в его базах и на которые человек отвечает легко. То есть если залить еще больше данных, то он сможет правильно отвечать на простые вопросы? Или он будет правильно отвечать только на сложные, а на простые - нет?
Потому что "механизм" формирования сложных форм мышление во многом не ясен. Каким макаром их заложить тогда в ИИ? Когда годовалый человек видит 1 стол, слово "стол" обозначает для него конкретный объект. Становясь старше и наблюдая несколько столов, он формирует абстрактное понятие столов. В его голове сохраняетя шаблон "стол". Наблюдая разные предметы, человек распознает их на автомате прикладывая к разным шаблонам в голове. Нечто подобное реализовано.
Как быть с незнакомым предметом? Человек может понять это в процессе исследовательской деятельности, проводя аналогии и другое. Попробуйте описать алгоритм умственных операций, связанных с такими действиями. С воображением, планированием? Логическим и абстрактрым мышлением? Осознанием самого себя? Рефлексией?
И еще. Надо четко понимать, что если есть серьезные наработки в плане ИИ, никто и никогда из сильных мира сего их в общее пользование не сольет.
Так что по этому косвенному признаку опять выходит, что GPT - просто игруха, иллюстрирующая определенные достижения моделей программирования и обработки данных.
А кто-нибудь пробовал давать ИИ математическую словесную задачу на уровне 4-5 класса школы и чтобы он ее решил. Причем решение такой задачи не должно быть в базе данных ИИ.
Я так понимаю, вы его используете для обмана людей в основном.
Или вы не понимаете, о чем я пишу.
ЧСВ для ИИ тоже надо добавить. А то нехорошо как-то. У человека оно есть, а у ИИ нет.
Вы вырываете из контекста, как ИИ.
В первом случае имеется в виду, что уровень сложности "мышления" ИИ не превышает таковой у животных. Сложность мышления с инстинктом выживания не связаны. И объединять их по признаку "в обоих случаях речь идет о животных" нелепо.
"Инстинкт выживания" можно описать и для амебы, у которой нет нервной системы вообще.
В том и дело. Нет у сегодняшнего ИИ анализа, абстракций, логики, сравнения, наглядно-образного мышления. Он дрессированное животное, не более. Что все это дать ему, надо понять как это происходит у человека. Может быть поход от обратного: смотреть как "развивается" ИИ и понимать суть мышления человека. Как оно развивалось в процессе эволюции.
Планируете за это время встроить в ИИ инстинкт выживания? Чтобы хотел, чтобы у него было все как можно лучше, больше, совершенней и бесконечную жизнь? Понятие ценности самосохранения в него заложите? А дальше как в природе, путем естественного отбора, один из миллиардов ИИ выживет, остальные будут GPT для рерайтеров и картинки ржачные генерить.
Мда. Почему ИИ, имея все знания мира, умея комбинировать их, до сих пор еще не поставил точку в теории всего из физики, не пришел к однозначной теории происхождения жизни, не спрогнозировал реальное развитие тех или иных систем, не вычислил формулы лекарств, способных лечить болезни.
Вместо этого мы видим комбинаторику бульдога с носорогом и получается "творчество", которое к реальности и практическому смыслу, рациональности, опоре на законы реального мира отношения не имеет.