Что может, что не может AI. Обсуждаем возможности, делимся опытом, спорим, но в рамках приличия.

ArbNet
На сайте с 27.10.2019
Offline
150
#1601
Sly32 #:
Ключевой шаг DeepSeek — принудить эти связи жить на заданном математическом многообразии.

Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.

Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.

ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.

melkozaur
На сайте с 06.04.2010
Offline
544
#1602
Валентина #:
А ещё бывает склоняет несклоняемые слова и придумывает несуществующие формы слов. Но зато всегда признаётся, что лоханулся 😀

Ну для того, чтобы признался - его нужно поправить.

По текстам там конечно всегда нужны правки, он и иероглиф иной раз не дурак вставить в русский текст (но это больше на глюки похоже).

В длинном тексте всегда будут ошибки разные.

S3
На сайте с 29.03.2012
Online
385
#1603
ArbNet #:

Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.

Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.

ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.

Прочитал твой ответ, прифигел - это ж насколько нужно не читать и не понимать темы. Вот для ясности приведу ответ от ИИ

оцени релевантность ответа пользователя на это сообщение

Релевантность: Низкая.

Ответ пользователя не относится к теме сообщения. Он игнорирует содержание статьи про mHC-гиперсвязи DeepSeek и переводит разговор на другую проблему — общую «требовательность к вычислительным мощностям» LLM.

Сообщение от DeepSeek — о качественных улучшениях архитектуры (стабильность обучения, эффективность передачи сигнала). Ответ пользователя — о количественных ограничениях железа и необходимости квантовых компьютеров. Эти две темы почти не пересекаются:

  • Новый подход (mHC) уменьшает хаос и потери градиента, позволяя учить более глубокие модели с тем же железом — это прямая помощь проблеме вычислений.
  • Пользователь жалуется на сложность вычислений при генерации (softmax по словарю), что к mHC никак не относится.

Ты походу вообще не отдупляешь что такое ИИ. Уже квантовые компьютеры притянул - слово понравилось?

LA
На сайте с 05.09.2011
Offline
147
#1604
Сергей про е-ком #:

Вообще советую сделать инструкцию в Курсоре целиком или в Воркфлоу, чтобы создавалась в конце диалога:

1. краткая выжимка с диалога;

2. создавался док файл проекта, где хранится документация по файлам, функциям, БД (если есть), логике, технические данные.

Это то, что напрямую к документации отношения не имеет. По сути - база знаний. 

Сильно упрощает работу. Также есть скиллы, которые отвечают за обработку контекста проекта в Курсоре. С ними качество значительно повышается, уменьшается галлюцинация. В том числе сужается диалог, а ответы Ai проходят верификацию интента проекта. 

Это очень правильно. Я не знаю, у меня проект большой или че. Но одни обновления документации у меня иногда лимит всей сессии сжирает. ChatGPT пишет и пишет спокойно,  анализирует и тут же дальше можно работать. Качество, ну чуть похуже может, но не фундаментально. 200 евро в месяц я за "чуть получше " платить не хочу.

ArbNet
На сайте с 27.10.2019
Offline
150
#1605
Sly32 #:
Прочитал твой ответ, прифигел - это ж насколько нужно не читать и не понимать темы. Вот для ясности приведу ответ от ИИ
Ты походу вообще не отдупляешь что такое ИИ. Уже квантовые компьютеры притянул - слово понравилось?

Как ты вообще дожил-то до своих лет.. даже сам переварить моё сообщение не смог, использовал ИИ 😁

Во-первых, я ответил на ранее заданный мне вопрос чём существующие движки ИИ меня не устраивают. Во-вторых, обучение модели выполняется один раз, ну уменьшили они скорость и потребление ресурсов, в итоге работа генерации осталась прежняя с высокими требованиями в вычислительным мощностям.

ЗЫ. В третьих, научись лучше думать своей головой, а то деградируешь не по дням, в по часам уже..

S3
На сайте с 29.03.2012
Online
385
#1606
ArbNet #:
Во-вторых, обучение модели выполняется один раз, ну уменьшили они скорость и потребление ресурсов, в итоге работа генерации осталась прежняя с высокими требованиями в вычислительным мощностям.
Ты читать умеешь?
Результаты:

Стабильность: удалось обучить модель на 27 млрд параметров, которую раньше нельзя было стабилизировать с обычными гипер-связями.

Производительность: значительное улучшение на бенчмарках кодирования, математики и рассуждений (BBH и DROP).
ArbNet #:
Как ты вообще дожил-то до своих лет.. даже сам переварить моё сообщение не смог, использовал ИИ
И снова тот же вопрос - читать умеешь?
Sly32 #:
Прочитал твой ответ, прифигел - это ж насколько нужно не читать и не понимать темы. Вот для ясности приведу ответ от ИИ
Я сначала сам увидел несуразность, потом ответил, для подтверждения своих слов приведя  ответ ИИ.
ArbNet #:
Во-первых, я ответил на ранее заданный мне вопрос чём существующие движки ИИ меня не устраивают.
В таком случае и цитируй  вопрос корректно. Но вообще это не ответ, примерно то же как сказать - солнце сильно греет, ждем, когда остынет. Ты бахвалился что знаешь как сделать лучше чем Оллама, теперь оказывается тебе квантовый компьютер нужно. Одно пустозвонство.
LikeAVirgin #:
Это очень правильно.
Это прям очень базовые принципы работы, когда ты не умеешь в РАГ, например. Для антропика это базовый совет - Базовый агент+ скилы+ периодически копиакт конверсэйшен. Впрочем не знаю как курсор, Гитхаб копайлот это делает сам. 
Соответственно ты не гоняешь постоянно весь контекст, используешь то что нужно. А если у тебя грамотная иерархия - то будет нормально работать кэширование
alaev
На сайте с 18.11.2010
Offline
880
#1607
ArbNet #:

ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.

Чат жопити тупее осла. Вычислительные мощности его умнее не сделают.

Мне сегодня надо было решить элементарную математическую задачу. Тупо комбинаторика. Не более.

Мне было лень, а он никак и ни в какую. :)

А пришли ко мне уже с готовым решением от этого чата жопити.

Пришлось перебороть свою лень, чуть-чуть подумать, зато я сэкономил много чужих денег.

Обучить чат жопити думать нельзя, а гуглить по вашим бложикам он умеет, но качество инфы с этих бложиков подходит лишь для стандартных решений.

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
LA
На сайте с 05.09.2011
Offline
147
#1608
Sly32 #:
Это прям очень базовые принципы работы, когда ты не умеешь в РАГ, например. Для антропика это базовый совет - Базовый агент+ скилы+ периодически копиакт конверсэйшен. Впрочем не знаю как курсор, Гитхаб копайлот это делает сам. 
Соответственно ты не гоняешь постоянно весь контекст, используешь то что нужно. А если у тебя грамотная иерархия - то будет нормально работать кэширование
Ну я по-своему работаю. Я агентам не доверяю, видя что они творят без контроля. :D В полуручном режиме код создаю, все перепроверяю. Дотошно так, но по-другому не могу. И периодически даю все это Claude причесать. Потому что у него рефакторинг лучше работает. Но вот даже эти причесывания кушают очень много. Сижу в результате на двух подписках по 20 евро каждая. И да, я бы дала Claude все полностью, но не могу, когда меня посреди задачи обламывает, потому что закончились токены. Прямо нервничать начинаю. :D

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий