ух ты, а давай проверим? выкладывай свой вопрос и свой ответ, а мы спросим у ЛЛМ и сравним? "сколько выриантов двух буквенныс слов можно составить из 3-х букв" - это уже тоже задача из комбинаторики - знаешь формулу решения или перебором решал? 😂
Что такое по твоему агент? Вот мне все больше кажется что ты не очень понимаешь)
Вот ты сама сеюе в ногу стреляешь. Хочешь качество - давай контекст. Решая задачу кусками - такой и результат получаешь.
Всё верно. Промпты должен что-то составлять, а ценность продукта именно в его развитии и адаптации к задачам бизнеса и рынка.
Причем вообще не так. как сравнить карандашь и принтер)
так о чем еще говорить? Лучше об ии чем о подьемных столах)
Ты не утрировал, ты не можешь понять чем отличается трансформер от БД)))
каждый IT шник должен стремиться стать главой или сопартнером мелкой, средней или крупной СВОЕЙ компании...
работать на чужого дядю.. так себе удовольствие... постоянное понукание, приказы, дедлайны и т.д. для свободного человека да еще IT шника - это унизительно..
Глупость. Работать на себя - иметь глупого начальника 24 часа в сутки)))
Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.
Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.
ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.
Релевантность: Низкая.
Ответ пользователя не относится к теме сообщения. Он игнорирует содержание статьи про mHC-гиперсвязи DeepSeek и переводит разговор на другую проблему — общую «требовательность к вычислительным мощностям» LLM.
Сообщение от DeepSeek — о качественных улучшениях архитектуры (стабильность обучения, эффективность передачи сигнала). Ответ пользователя — о количественных ограничениях железа и необходимости квантовых компьютеров. Эти две темы почти не пересекаются: