Причем вообще не так. как сравнить карандашь и принтер)
так о чем еще говорить? Лучше об ии чем о подьемных столах)
Ты не утрировал, ты не можешь понять чем отличается трансформер от БД)))
каждый IT шник должен стремиться стать главой или сопартнером мелкой, средней или крупной СВОЕЙ компании...
работать на чужого дядю.. так себе удовольствие... постоянное понукание, приказы, дедлайны и т.д. для свободного человека да еще IT шника - это унизительно..
Глупость. Работать на себя - иметь глупого начальника 24 часа в сутки)))
Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.
Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.
ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.
Релевантность: Низкая.
Ответ пользователя не относится к теме сообщения. Он игнорирует содержание статьи про mHC-гиперсвязи DeepSeek и переводит разговор на другую проблему — общую «требовательность к вычислительным мощностям» LLM.
Сообщение от DeepSeek — о качественных улучшениях архитектуры (стабильность обучения, эффективность передачи сигнала). Ответ пользователя — о количественных ограничениях железа и необходимости квантовых компьютеров. Эти две темы почти не пересекаются:
Для начала - ты знаешь, что такое профайлер?
Второй вопрос - ты понимаешь, как работают ДНС?