нехаос, ты реально клоун))) Прям фраза дня - " на какое-нибудь море" 😂
А я вот сижу уже в офисе, завтракаю итальянскими круассанами и снова хочу в Италию. Но скорее всего теперь только осенью и в Грецию - тяжела жизнь гребца на галерах...
Согласен, де факто стандарт. Но не для ллм) чтобы агент следовал этому, приходится обучать, иначе пихает все в кучу
ArbNet , появилась идея. Фрейворк свой ты все равно не допилишь, давай изменим задачу.AI logs analyzer - умный анализатор логов.
Суть идеи - создается простая модель класса nanoGPT. То есть по сути - трансформер. Обучается на реальных логах.
умеет:
риск ≠ утечка. Все проблемы плюсов известы, и в конкретно Pytorch нет никаких утечек, а наоборот, максимальная оптимизация по памяти
Полная чушь. Там пайтон - только удобная оболочка, все считается в С++, на пайтон может 5% процентов
Почитай, что решает tch-rs и для чего он.
Вот именно - с CUDA. И Rust здесь никак не помогает - все равно нужно использовать CUDA.По итогу - никакого прироста не даст переход на Rust. Из полезных кейсов, что мне известны - это токенизация на Rust. Hugging Face ее давно используют у себя. Все остальное - пустые слова. Pytorch - известный продукт, над которым работают большие команды. В этом его сила. Тот же JAX - хорош, но нет такого же коммьюнити.Главное что я понял - ты вообще не понимаешь математики построения моделей. И поэтому не понимаешь что Раст никакого волшебства не даст. Более того, все это опробовано давно. Ты опять паяешь транзисторы там, где надо просто сложить 2+2.
Нет у тебя такой задачи, для этого знания нужны. И впервые слышу чтоб кладовщика просили улучшить ЛЛМ))