Sly32

Рейтинг
372
Регистрация
29.03.2012
Artisan #:

Я уже писал выше.

Если надо впарить хрень,

то хайпят с умным видом.

Это не ответ, так ты опускаешься на уровень арбнета. Хотелось бы подробностей из твоего опыта. Где тебе помешал ООП, что усложнил И так далее. а так это не разговор. Мы же не строители фремфорков, хотелось бы аргументированного спора, раз пока нет интереса к ИИ тут. 

Я вот потрогал DuckDuckGoSearch - для бесплатной модели очень хороша и использовать просто.

ArbNet #:

Давай, разжуй 😀

Что именно тебе разжевать? Какие бывают трансформеры? Как они сочетаются? Или про стратегиии выбора следующего токена из слоев? 

Artisan #:
Ой, всё, ...

Ну так расскажешь, почему ООП развод для лохов? Как именно там лохов разводят? На что? )))

ArbNet #:
как происходит составление фразы\предложения с осмыслением ты даже понятия не имеешь..

Да ладно))) А ты имеешь? Тогда почему не понимаешь мои вопросы и не отвечаешь. Любой, кто имеет минимальное понятие о работе нейросети, уже бы понял мой ответ про токены, как они создаются, как используются входные токены для предсказания ответа. Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора? 

Если ты тренировал свою сеть - можешь привести ее основные параметры? Размер, тип тензора, который использовал, обьем?

Не отвечаешь - вали из темы, сказочник, надоел уже

ArbNet #:
Во-первых ты сказал, что сможешь всё объяснить и ничего не объяснил. Во-вторых ты используешь готовые решения, а не создаёшь свои нейросети, где примеры кода генерирующего осмысленный текст с пояснениями?

Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит.  Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!!  Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.

Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.

ArbNet #:

расскажи хотя-бы как генерируется осмысленный текст и приведи примеры кода.

ЗЫ. Я знаю как генерируется осмысленный текст нейросетью, тестировал свои способы на Rust.

Спорим, не знаешь?  Очередная сказка) А у мен, например есть готовый код, который умеет разобрать текст. Например, для перевода это работает так( ответ в режиме дебаггинга)

Немного деталей:
Промпт:

"You are a professional translator. Please translate the given TEXT to {lang}. TEXT: {text}`"

Данные:

{

"text": "Hi, I'm looking for historical book suggestions top-10 from 1900 to 2000",
"lang": "Russian",
}


Ответ и токенизация:

translation

Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.

Here's a breakdown of the translation:

- Привет (Hello)

- я (I'm)

- ищу (I'm looking for)

- рекомендации (recommendations)

- по (about)

- историческим (historical)

- книгам (books)

- в (in)

- топ-10 (top-10)

- с (from)

- 1900 (1900)

- по (to)

- 2000 (2000 год) (year) 

Теперь жду твой пример, как это работает, если ты утверждаешь что знаешь и делал))) И к слову, если бы ты точно понимал о чем речь - знал бы что такое, как и почему используются именно графовые базы данных для создание пре-тренинг моделей.

Artisan #:
Выше обычное заблуждение человека, который не знает ни одного чужого языка. Бывают слова, и сочетания слов, которые невозможно точно перевести на чужой язык.

Ну давай спросим у знатоков языка) Вот пример. Импользую модель "

meta-llama/Meta-Llama-3.1-8B-Instruct

"

Очень простой код работы с ним, пример приводить не буду, только результаты без всякой коррекции. Фраза

Hi, I'm looking for historical book suggestions top-10 from 1900 to 2000


Пеевод с помощью  ИИ на итальянский -

translation

Ecco la traduzione del testo in italiano:

"Ciao, sto cercando suggerimenti di libri storici top-10 tra il 1900 e il 2000."

Se desideri una traduzione più formale o adatta a un contesto specifico, potrei suggerire:

"Sto cercando libri storici di grande importanza, pubblicati tra il 1900 e il 2000. Posso avere alcune raccomandazioni?"

O ancora:

"Mi piacerebbe conoscere i migliori libri storici pubblicati tra il 1900 e il 2000. Ci sono alcune opere che vi consiglio?"

Spero che queste opzioni siano utili! 

На русский


Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.

ArbNet #:
как происходит семантический анализ текста, генерация, составление предложений, изображений, музыки и тд. этого ты не знаешь, там под капотом алгоритмы намного сложнее тех азов о которых ты говоришь

Ну я то как раз и знаю и могу обьяснить. Ты оперируешь тем, что нагуглил, я - опытом. И когда ты пишешь, что хочешь с помощью тенсорфлоу создать нейросеть, которая будет работать с твоим фпемфорком, это вызывает только смех. 

ArbNet #:
даже некоторые создатели нейронных сетей не понимают как это происходит.

Это вообще замечательный пассаж))) 

ArbNet #:
Я немного погрузился в реализацию и захотелось сделать по другому

Обычная сказка. Если бы это было правдой - ты бы смог описать, что ты хочешь сделать по-другому.  Но для этого нужно понимать, как это работает. Ты - не понимаешь, для тебя это загадка. Тренировкой нейросетей занимаются специалисты по datascience, это огромнейший пласт работы. Это даже не программисты - математики. Ты же банально не в курсе, какие бывают модели, в чем различие, методы обучения... Что ты можешь тут сделать по-другому? Через задницу? Это да))) Вот какой метод тренировки модели ты планируешь применять? Простой вопрос, твой ответ покажет твои компетенции в этом вопросе.

Artisan #:
Хотя увлечение заимствованием иногда выглядит забавно, как в случае  Sly32 на этом форуме.

Это профессионально искажение. Вынуждено. В моей команде у людей минимум 5 языков в ходу. Поэтому мне проще использовать оригиналы слов, чем вспоминать перевод. И да, часто просто невозможно перевести. Поэтому я никогда не читаю переведенную документацию. 

Artisan #:
ООП не технология, а развод колхозных лохов.

А можешь обосновать, почему ты так считаешь? У меня вот примерно 90 процентов кода написано по архитектуре ООП, я могу в каждом случае обосновать, почему, как и почему иногда его не применяю.  Вот например Джава полностью ООП, пайтон позволяет выбирать. 

Конкретнее - какие принципы ООП, по твоему развод лохов?

Artisan #:
Выше обычное заблуждение человека, который не знает ни одного чужого языка. Бывают слова, и сочетания слов, которые невозможно точно перевести на чужой язык.

Да, и что? Как раз нейросеть в состоянии это учитывать, в отличие от банального переводчика

plab #:

Тогда спор ни о чем. ИИ обычная приложуха. Как все кратно увеличивает возможности человека и когда появляется впервые вызывает дикий восторг. А обсуждает вы здесь просто новую технологию. Как когда-то появилось ООП

ОМГ а ООП то как здесь оказалось?

Ну и я бы не сравнивал это с "обычными приложухами" Это немножко иное чем сайтик на вордпрессе склепать. Возможности резко отличаются от всего того, что было.

plab #:
Речь не о таких задачах, а о стратегических. Принятии решений. Это и есть интеллект. А то что вы приводите, у животных сложнее.

Дискуссия превращается  во флуд. Сколько раз нужно повторить что не нужно ставить прямых зависимостей  человеческий интеллект=ИИ? В данном случае этот термин описывает систему, отличающуюся от обычной, алгоритмической. Она более сложная, но не заменяет человека. Зато кратно увеличивает возможности человека при ее использовании.
Если есть что обсудить - велкам, а гонять по кругу, что ИИ это не интеллект - надоело. СЧитаете что это хайп, бесполезное что-то - так никто и не принуждает пользоваться. Хотите узнать как его лучше использовать - добро пожаловать в дискуссию.
Надеюсь, мы закрыли таки этот вопрос?

Всего: 7407