OpenAI представила модель GPT-5

EE
На сайте с 02.01.2021
Offline
163
#81
Sly32 #:

Так же и с ИИ - он умеет не больше чем я, но многие вещи сделает быстрее.

Так, ну раз вы знаете в этой теме, тогда подскажите по делу. Накатил, значит, я себе DeepSeek, Gemma 3, Qwen 3 и GPT на ПК. Всё на удивление работает шустро, несмотря на то что железо среднего уровня (было в ~2021 году 😁). В общем, параметры, которые я подчеркнул, как я понимаю, если я их уменьшаю (верхний), то ответ будет более точным? Если увеличиваю, то он начнёт выдумывать больше отсебятины, например можно стихи писать и сочинение? А регулировка параметра, тот что ниже, за что он отвечает? А то что-то толкового не могу найти.


Сергей про е-ком
На сайте с 11.05.2008
Offline
319
#82
Devstory #:

Вот ты и сам признал , что все что может ваш жопити то скопировать имеющееся. 

Devstory #:
Перестал в последнее время вообще пользоваться гопотой ,  дипсиком и прочими генераторами. В реальности нельзя с ними не текст писать для статей  , ни картинки , ни видео генерить. Карточки для озона сделайте через нейросеть? Интернет магазин адекватный ?  Только реальные, конкурентоспособные и конверсионные .  Нет, ничего не возможно, только самому. Все кто считает иначе теоретики и по прежнему прошу от них ссылку на аналог озона который им гопота нагенерит за один промпт 
Крутейшая тема и конструктор на WP - https://shop.greenshiftwp.com/?from=3338
S3
На сайте с 29.03.2012
Offline
357
#83
EdwardEdit #:
В общем, параметры, которые я подчеркнул, как я понимаю, если я их уменьшаю (верхний), то ответ будет более точным? Если увеличиваю, то он начнёт выдумывать больше отсебятины, например можно стихи писать и сочинение? А регулировка параметра, тот что ниже, за что он отвечает? А то что-то толкового не могу найти.

Ну вот как это можно не найти??? Это гуглится за секунды или любой чат сразу даст ответ!
top_k top_p - настройки вероятности подбора токенов для генерации ответа. превый - ты органичиваешь количество токенов и модель из них сама выбирает подходящие, второй - динамический подбор, порог схожести, ищет, пока cхожесть не ниже заданного уровня.
Пример, вот у тебя первое слово "Лает". Модель находит для нее следущие токены с разной  вероятностью-

"кот"   – 0.50
"собака"0.30
"машина"0.10
"стол"   – 0.05
"луна"   – 0.05

Если у тебя ещз_k=2, то модель для дальнейшей генерации оставить только превых два - с наибольшей

top_p - это динамическое формирование. если ты ставишь порог 0.5 - тогда только 1 токен попадет.

То есть это регулировка точности и использование токенов - удешевляет работу

EE
На сайте с 02.01.2021
Offline
163
#84
Sly32 #:

То есть это регулировка точности и использование токенов - удешевляет работу

Ок, спасибо.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий