Да хватит уже спорить с троллем-вечным разработчиком фреймворка, который никто не видел, это бесполезно.
Я не спорю. На самом деле на его бредятине прекрасно тренируется поведенческий бот. Фактически он уже по паре фраз способен понять, что перед ним троль-незнайка. Закончу, можно будет продать на любой форум за большие деньги. Такой бот будет на форуме сразу добавлять метку пользователю, который умеет только флудить)))
Угу. У меня году в 82 был фотоаппарат Зенит-Е с гелиосом-44, знатоки поймут. И калькулятор мк-54, для которого я написал программу морской бой и стрельба из пушки. Но вот только не припомню я в то время Жигулей с адаптивным круиз-контролем))) Не обьяснишь, почему? А линия то не просто - прерывистая, сплошная, двойная сплошная, разных цветов может быть. А может быть просто обочина с бордюром - система и ее понимает. А поворот, когда уже не линия. А если водитель заснет за рулем - машина сама сьедет на обочину и остановиться - тоже все просто? с распознаванием обьектов я еще лет 5 назад баловался и удивлялся, как он понимает где яблоки а где птички)
Очень надеюсь, что больше не будешь загрязнять тему, балаболка. Все надеялся, что родишь хоть что-то осмысленное, время тратил. Но нет - тот же результат что и с фремфорком. С недоучившимся токарем говорить о программировании - пустая трата времени, не понимаю, зачем я это делаю.
Ну давай, расскажи как правильно, очень интересно))) А то куда уж мне. Как там твоя нервная сеть осмысленный текст генерирует?
Ой, надоел уже, не понимаешь о чем пишешь и что тебе пишут. Достаточно вот этого бреда -
Тебе говоришь про слои и методы выбора, я ты детскую чушь лепишь, не понимая как тут токены привязаны. осмысленный))) Какая осмысленность в трансформере, чудик? Трансформер-слой выдает на выходе распределение вероятностей следующего слова, дальше в зависимости от стратегии выбирается следующий токен. Но судя по всему ты и значения токен в данном контексте не понимаешь. Базовую теорию выучи сначала, потом умничай.
Нет времени на болтовню.
ru.wikipedia.org/wiki/Небеса_обетованные
Фёдор женился на юной учащейся ПТУ Жанне, которая искала себе комнату и набрела на дачу, где жил Фёдор Степанович, хотя и очень пожилой, но по-прежнему обожающий женщин интеллигент… Спустя некоторое время он сделал ей предложение руки и сердца, и в 8-й раз отправился под венец. По ходу празднества Фима флиртует с Бакуриным, рассказывает о своём с Федей отце-генерале. В конце вечера приезжают настоящие хозяева дачи, которую, как выяснилось, Фёдор, также бездомный, просто занял во время их отсутствия.
Два болтуна в теме достаточно.
А ты тогда чего тут делаешь? По теме ни слова, что такое ООП просто не понимаешь, зато берешься других осуждать. арбнет-2, вопросов больше не имею. Я таких с собеса на 3-м вопросе заворачиваю
Я уже писал выше.
то хайпят с умным видом.
Это не ответ, так ты опускаешься на уровень арбнета. Хотелось бы подробностей из твоего опыта. Где тебе помешал ООП, что усложнил И так далее. а так это не разговор. Мы же не строители фремфорков, хотелось бы аргументированного спора, раз пока нет интереса к ИИ тут.
Я вот потрогал DuckDuckGoSearch - для бесплатной модели очень хороша и использовать просто.
Давай, разжуй 😀
Что именно тебе разжевать? Какие бывают трансформеры? Как они сочетаются? Или про стратегиии выбора следующего токена из слоев?
Ну так расскажешь, почему ООП развод для лохов? Как именно там лохов разводят? На что? )))
Да ладно))) А ты имеешь? Тогда почему не понимаешь мои вопросы и не отвечаешь. Любой, кто имеет минимальное понятие о работе нейросети, уже бы понял мой ответ про токены, как они создаются, как используются входные токены для предсказания ответа. Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора?
Если ты тренировал свою сеть - можешь привести ее основные параметры? Размер, тип тензора, который использовал, обьем?
Не отвечаешь - вали из темы, сказочник, надоел уже
Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит. Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!! Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.
Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.