Sly32

Рейтинг
367
Регистрация
29.03.2012
ArbNet #:
это к самой нейросети отношения имеет только косвенное,

Ой, надоел уже, не понимаешь о чем пишешь и что тебе пишут. Достаточно вот этого бреда - 

ArbNet #:
как происходит генерация осмысленного текста в нейросети.

Тебе говоришь про слои и методы выбора, я ты детскую чушь лепишь, не понимая как тут токены привязаны. осмысленный))) Какая осмысленность в трансформере, чудик? Трансформер-слой выдает на выходе распределение вероятностей следующего слова, дальше  в зависимости от стратегии выбирается следующий токен. Но судя по всему ты и значения токен в данном контексте не понимаешь. Базовую теорию выучи сначала, потом умничай.

Artisan #:

Нет времени на болтовню.

ru.wikipedia.org/wiki/Небеса_обетованные

Фёдор женился на юной учащейся ПТУ Жанне, которая искала себе комнату и набрела на дачу, где жил Фёдор Степанович, хотя и очень пожилой, но по-прежнему обожающий женщин интеллигент… Спустя некоторое время он сделал ей предложение руки и сердца, и в 8-й раз отправился под венец. По ходу празднества Фима флиртует с Бакуриным, рассказывает о своём с Федей отце-генерале. В конце вечера приезжают настоящие хозяева дачи, которую, как выяснилось, Фёдор, также бездомный, просто занял во время их отсутствия.

Два болтуна в теме достаточно.

А ты тогда чего тут делаешь? По теме ни слова, что такое ООП просто не понимаешь, зато берешься других осуждать. арбнет-2, вопросов  больше не имею. Я таких с собеса на 3-м вопросе заворачиваю

Artisan #:

Я уже писал выше.

Если надо впарить хрень,

то хайпят с умным видом.

Это не ответ, так ты опускаешься на уровень арбнета. Хотелось бы подробностей из твоего опыта. Где тебе помешал ООП, что усложнил И так далее. а так это не разговор. Мы же не строители фремфорков, хотелось бы аргументированного спора, раз пока нет интереса к ИИ тут. 

Я вот потрогал DuckDuckGoSearch - для бесплатной модели очень хороша и использовать просто.

ArbNet #:

Давай, разжуй 😀

Что именно тебе разжевать? Какие бывают трансформеры? Как они сочетаются? Или про стратегиии выбора следующего токена из слоев? 

Artisan #:
Ой, всё, ...

Ну так расскажешь, почему ООП развод для лохов? Как именно там лохов разводят? На что? )))

ArbNet #:
как происходит составление фразы\предложения с осмыслением ты даже понятия не имеешь..

Да ладно))) А ты имеешь? Тогда почему не понимаешь мои вопросы и не отвечаешь. Любой, кто имеет минимальное понятие о работе нейросети, уже бы понял мой ответ про токены, как они создаются, как используются входные токены для предсказания ответа. Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора? 

Если ты тренировал свою сеть - можешь привести ее основные параметры? Размер, тип тензора, который использовал, обьем?

Не отвечаешь - вали из темы, сказочник, надоел уже

ArbNet #:
Во-первых ты сказал, что сможешь всё объяснить и ничего не объяснил. Во-вторых ты используешь готовые решения, а не создаёшь свои нейросети, где примеры кода генерирующего осмысленный текст с пояснениями?

Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит.  Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!!  Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.

Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.

ArbNet #:

расскажи хотя-бы как генерируется осмысленный текст и приведи примеры кода.

ЗЫ. Я знаю как генерируется осмысленный текст нейросетью, тестировал свои способы на Rust.

Спорим, не знаешь?  Очередная сказка) А у мен, например есть готовый код, который умеет разобрать текст. Например, для перевода это работает так( ответ в режиме дебаггинга)

Немного деталей:
Промпт:

"You are a professional translator. Please translate the given TEXT to {lang}. TEXT: {text}`"

Данные:

{

"text": "Hi, I'm looking for historical book suggestions top-10 from 1900 to 2000",
"lang": "Russian",
}


Ответ и токенизация:

translation

Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.

Here's a breakdown of the translation:

- Привет (Hello)

- я (I'm)

- ищу (I'm looking for)

- рекомендации (recommendations)

- по (about)

- историческим (historical)

- книгам (books)

- в (in)

- топ-10 (top-10)

- с (from)

- 1900 (1900)

- по (to)

- 2000 (2000 год) (year) 

Теперь жду твой пример, как это работает, если ты утверждаешь что знаешь и делал))) И к слову, если бы ты точно понимал о чем речь - знал бы что такое, как и почему используются именно графовые базы данных для создание пре-тренинг моделей.

Artisan #:
Выше обычное заблуждение человека, который не знает ни одного чужого языка. Бывают слова, и сочетания слов, которые невозможно точно перевести на чужой язык.

Ну давай спросим у знатоков языка) Вот пример. Импользую модель "

meta-llama/Meta-Llama-3.1-8B-Instruct

"

Очень простой код работы с ним, пример приводить не буду, только результаты без всякой коррекции. Фраза

Hi, I'm looking for historical book suggestions top-10 from 1900 to 2000


Пеевод с помощью  ИИ на итальянский -

translation

Ecco la traduzione del testo in italiano:

"Ciao, sto cercando suggerimenti di libri storici top-10 tra il 1900 e il 2000."

Se desideri una traduzione più formale o adatta a un contesto specifico, potrei suggerire:

"Sto cercando libri storici di grande importanza, pubblicati tra il 1900 e il 2000. Posso avere alcune raccomandazioni?"

O ancora:

"Mi piacerebbe conoscere i migliori libri storici pubblicati tra il 1900 e il 2000. Ci sono alcune opere che vi consiglio?"

Spero che queste opzioni siano utili! 

На русский


Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.

ArbNet #:
как происходит семантический анализ текста, генерация, составление предложений, изображений, музыки и тд. этого ты не знаешь, там под капотом алгоритмы намного сложнее тех азов о которых ты говоришь

Ну я то как раз и знаю и могу обьяснить. Ты оперируешь тем, что нагуглил, я - опытом. И когда ты пишешь, что хочешь с помощью тенсорфлоу создать нейросеть, которая будет работать с твоим фпемфорком, это вызывает только смех. 

ArbNet #:
даже некоторые создатели нейронных сетей не понимают как это происходит.

Это вообще замечательный пассаж))) 

ArbNet #:
Я немного погрузился в реализацию и захотелось сделать по другому

Обычная сказка. Если бы это было правдой - ты бы смог описать, что ты хочешь сделать по-другому.  Но для этого нужно понимать, как это работает. Ты - не понимаешь, для тебя это загадка. Тренировкой нейросетей занимаются специалисты по datascience, это огромнейший пласт работы. Это даже не программисты - математики. Ты же банально не в курсе, какие бывают модели, в чем различие, методы обучения... Что ты можешь тут сделать по-другому? Через задницу? Это да))) Вот какой метод тренировки модели ты планируешь применять? Простой вопрос, твой ответ покажет твои компетенции в этом вопросе.

Artisan #:
Хотя увлечение заимствованием иногда выглядит забавно, как в случае  Sly32 на этом форуме.

Это профессионально искажение. Вынуждено. В моей команде у людей минимум 5 языков в ходу. Поэтому мне проще использовать оригиналы слов, чем вспоминать перевод. И да, часто просто невозможно перевести. Поэтому я никогда не читаю переведенную документацию. 

Artisan #:
ООП не технология, а развод колхозных лохов.

А можешь обосновать, почему ты так считаешь? У меня вот примерно 90 процентов кода написано по архитектуре ООП, я могу в каждом случае обосновать, почему, как и почему иногда его не применяю.  Вот например Джава полностью ООП, пайтон позволяет выбирать. 

Конкретнее - какие принципы ООП, по твоему развод лохов?

Artisan #:
Выше обычное заблуждение человека, который не знает ни одного чужого языка. Бывают слова, и сочетания слов, которые невозможно точно перевести на чужой язык.

Да, и что? Как раз нейросеть в состоянии это учитывать, в отличие от банального переводчика

Всего: 7119