Sly32

Рейтинг
367
Регистрация
29.03.2012
EdwardEdit #:
В общем, параметры, которые я подчеркнул, как я понимаю, если я их уменьшаю (верхний), то ответ будет более точным? Если увеличиваю, то он начнёт выдумывать больше отсебятины, например можно стихи писать и сочинение? А регулировка параметра, тот что ниже, за что он отвечает? А то что-то толкового не могу найти.

Ну вот как это можно не найти??? Это гуглится за секунды или любой чат сразу даст ответ!
top_k top_p - настройки вероятности подбора токенов для генерации ответа. превый - ты органичиваешь количество токенов и модель из них сама выбирает подходящие, второй - динамический подбор, порог схожести, ищет, пока cхожесть не ниже заданного уровня.
Пример, вот у тебя первое слово "Лает". Модель находит для нее следущие токены с разной  вероятностью-

"кот"   – 0.50
"собака"0.30
"машина"0.10
"стол"   – 0.05
"луна"   – 0.05

Если у тебя ещз_k=2, то модель для дальнейшей генерации оставить только превых два - с наибольшей

top_p - это динамическое формирование. если ты ставишь порог 0.5 - тогда только 1 токен попадет.

То есть это регулировка точности и использование токенов - удешевляет работу

Artisan #:
По весу цитирования.

Нет, абсолютно иные механизмы анализа, основанные на эвристических алгоритмах, векторном анализе. Семантическое сходство тоже учитывается, но это только один из методов. Теория графов, надеюсь тебе знакома?

Devstory #:
Я это умел делать ещё в начале нулевых.

Да, заметно по твоим вопросам на форуме, что ты умеешь. Если для создания сайта на ВП тебе ИИ нужен. Ты даже сравнить не можешь корректно. Может тебя калькулятор и умнее, меня - нет. Все, что он умеет - я тоже, включая вычичлаение алгебраических функций и прочего. Просто он это делает быстрее.
Так же и с ИИ - он умеет не больше чем я, но многие вещи сделает быстрее.
А ты - нет. Кроме как сказки рассказывать. В этом ты хорош...

Devstory #:

Вот ты и сам признал , что все что может ваш жопити то скопировать имеющееся. 

Только вот ИИ умеет скопировать сайт и полностью воссозать его, а ты - нет. И кто умнее? 

Delysid #:
Так весь код который подсовывается и якобы делается с github.

Правда? И как это происходит, расскажешь? 

Devstory #:
Я его даже не смотрел. Просто пролистал в конец чтобы посмотреть что получилось.

Вот именно - все твои суждения - без попыток разобраться в теме. А суть видео в том чтобы не создать уникальный диз, а по представленному сайту сделать его клон.

не хаос #:
Значит жпт заточен под написание кода а не текстов,

Не значит. Значит только то, что ретрограды не умеют пользоваться.

Devstory #:
Ты действительно считаешь это убожество крутым дизайном ? ))))

Курьеру знание английского не нужно, не понял о чем речь в видео? Каким боком тут дизайн???

не хаос #:
Так я рассказывал здесь уже что высшую математику и программирование учил три семестра всего

Тогда зачем ты с умным видом рассуждаешь о том, чего не понимаешь? А что бы понять основы  и не пороть чушь, не нужно быть суперзнатоком в этих темах. Основы укладывабтся чуть ли не в школьный курс математики

Сергей про е-ком #:
Проблема в том, что модель тоже отдаёт разные промты, а у меня многоступенчатая задача с несколькими источниками.

С помощью ИИ можно сгенерить базовый промпт, а потом его уже тюнить под свои нужды. для многоступенчатых задач уже нужно использовать цепочки с историей. Для источников - RAG.

Сергей про е-ком #:
Самое оптимальное, как я понял, xml.

Нет. Как оказалось, ЛЛМ не сильно умеет работать с тэгами. А вот Markdown формат - очень хорошо кушает.

master32 #:
OpenAI запустили https://gpt5-coding-examples.vercel.app/ сайт, где можно найти примеры сгенерированных приложений и сайтов — под каждым есть промпт, который можно скопировать и закинуть любому чат-боту.

А отрицальщики все поют старую песню… 

не хаос #:
Ты ж сам рассказывал что в твоей фирме много заказов от медицинских клиник, рассказывал как обучают ИИ читать рентгеновские снимки.

Это никак не относится к созданию моделей ЛЛМ, кастомная работа. Ты же говоришь про попадание ошибочных данных в ЛЛМ  - этим занимаются OpenAi, Grok, Meta и другие. Обучать  готовую модель работать с данными, чем мы и занимаемся, писать агенты - совсем другое. Столько сидишь в этой теме и не понимаешь разницы, печально...

Всего: 7101