Ой, надоел уже, не понимаешь о чем пишешь и что тебе пишут. Достаточно вот этого бреда -
Тебе говоришь про слои и методы выбора, я ты детскую чушь лепишь, не понимая как тут токены привязаны. осмысленный))) Какая осмысленность в трансформере, чудик? Трансформер-слой выдает на выходе распределение вероятностей следующего слова, дальше в зависимости от стратегии выбирается следующий токен. Но судя по всему ты и значения токен в данном контексте не понимаешь. Базовую теорию выучи сначала, потом умничай.
Нет времени на болтовню.
ru.wikipedia.org/wiki/Небеса_обетованные
Фёдор женился на юной учащейся ПТУ Жанне, которая искала себе комнату и набрела на дачу, где жил Фёдор Степанович, хотя и очень пожилой, но по-прежнему обожающий женщин интеллигент… Спустя некоторое время он сделал ей предложение руки и сердца, и в 8-й раз отправился под венец. По ходу празднества Фима флиртует с Бакуриным, рассказывает о своём с Федей отце-генерале. В конце вечера приезжают настоящие хозяева дачи, которую, как выяснилось, Фёдор, также бездомный, просто занял во время их отсутствия.
Два болтуна в теме достаточно.
А ты тогда чего тут делаешь? По теме ни слова, что такое ООП просто не понимаешь, зато берешься других осуждать. арбнет-2, вопросов больше не имею. Я таких с собеса на 3-м вопросе заворачиваю
Я уже писал выше.
то хайпят с умным видом.
Это не ответ, так ты опускаешься на уровень арбнета. Хотелось бы подробностей из твоего опыта. Где тебе помешал ООП, что усложнил И так далее. а так это не разговор. Мы же не строители фремфорков, хотелось бы аргументированного спора, раз пока нет интереса к ИИ тут.
Я вот потрогал DuckDuckGoSearch - для бесплатной модели очень хороша и использовать просто.
Давай, разжуй 😀
Что именно тебе разжевать? Какие бывают трансформеры? Как они сочетаются? Или про стратегиии выбора следующего токена из слоев?
Ну так расскажешь, почему ООП развод для лохов? Как именно там лохов разводят? На что? )))
Да ладно))) А ты имеешь? Тогда почему не понимаешь мои вопросы и не отвечаешь. Любой, кто имеет минимальное понятие о работе нейросети, уже бы понял мой ответ про токены, как они создаются, как используются входные токены для предсказания ответа. Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора?
Если ты тренировал свою сеть - можешь привести ее основные параметры? Размер, тип тензора, который использовал, обьем?
Не отвечаешь - вали из темы, сказочник, надоел уже
Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит. Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!! Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.
Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.
расскажи хотя-бы как генерируется осмысленный текст и приведи примеры кода.
ЗЫ. Я знаю как генерируется осмысленный текст нейросетью, тестировал свои способы на Rust.
Спорим, не знаешь? Очередная сказка) А у мен, например есть готовый код, который умеет разобрать текст. Например, для перевода это работает так( ответ в режиме дебаггинга)
Немного деталей:Промпт:
Данные:
{
Ответ и токенизация:
translation
Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.
Here's a breakdown of the translation:
- Привет (Hello)
- я (I'm)
- ищу (I'm looking for)
- рекомендации (recommendations)
- по (about)
- историческим (historical)
- книгам (books)
- в (in)
- топ-10 (top-10)
- с (from)
- 1900 (1900)
- по (to)
- 2000 (2000 год) (year)
Теперь жду твой пример, как это работает, если ты утверждаешь что знаешь и делал))) И к слову, если бы ты точно понимал о чем речь - знал бы что такое, как и почему используются именно графовые базы данных для создание пре-тренинг моделей.
Ну давай спросим у знатоков языка) Вот пример. Импользую модель "
"
Очень простой код работы с ним, пример приводить не буду, только результаты без всякой коррекции. Фраза-
Пеевод с помощью ИИ на итальянский -
Ecco la traduzione del testo in italiano:
"Ciao, sto cercando suggerimenti di libri storici top-10 tra il 1900 e il 2000."
Se desideri una traduzione più formale o adatta a un contesto specifico, potrei suggerire:
"Sto cercando libri storici di grande importanza, pubblicati tra il 1900 e il 2000. Posso avere alcune raccomandazioni?"
O ancora:
"Mi piacerebbe conoscere i migliori libri storici pubblicati tra il 1900 e il 2000. Ci sono alcune opere che vi consiglio?"
Spero che queste opzioni siano utili!
На русский
Ну я то как раз и знаю и могу обьяснить. Ты оперируешь тем, что нагуглил, я - опытом. И когда ты пишешь, что хочешь с помощью тенсорфлоу создать нейросеть, которая будет работать с твоим фпемфорком, это вызывает только смех.
Это вообще замечательный пассаж)))
Обычная сказка. Если бы это было правдой - ты бы смог описать, что ты хочешь сделать по-другому. Но для этого нужно понимать, как это работает. Ты - не понимаешь, для тебя это загадка. Тренировкой нейросетей занимаются специалисты по datascience, это огромнейший пласт работы. Это даже не программисты - математики. Ты же банально не в курсе, какие бывают модели, в чем различие, методы обучения... Что ты можешь тут сделать по-другому? Через задницу? Это да))) Вот какой метод тренировки модели ты планируешь применять? Простой вопрос, твой ответ покажет твои компетенции в этом вопросе.
Это профессионально искажение. Вынуждено. В моей команде у людей минимум 5 языков в ходу. Поэтому мне проще использовать оригиналы слов, чем вспоминать перевод. И да, часто просто невозможно перевести. Поэтому я никогда не читаю переведенную документацию.
А можешь обосновать, почему ты так считаешь? У меня вот примерно 90 процентов кода написано по архитектуре ООП, я могу в каждом случае обосновать, почему, как и почему иногда его не применяю. Вот например Джава полностью ООП, пайтон позволяет выбирать.
Конкретнее - какие принципы ООП, по твоему развод лохов?
Да, и что? Как раз нейросеть в состоянии это учитывать, в отличие от банального переводчика