Sly32

Рейтинг
370
Регистрация
29.03.2012
не хаос #:
Ты ж сам рассказывал что в твоей фирме много заказов от медицинских клиник, рассказывал как обучают ИИ читать рентгеновские снимки.

Это никак не относится к созданию моделей ЛЛМ, кастомная работа. Ты же говоришь про попадание ошибочных данных в ЛЛМ  - этим занимаются OpenAi, Grok, Meta и другие. Обучать  готовую модель работать с данными, чем мы и занимаемся, писать агенты - совсем другое. Столько сидишь в этой теме и не понимаешь разницы, печально...

не хаос #:
Так это в медицине у тебя в фирме на рентгеновских снимках,

в какой еще медицине в моей фирме? Ты ничего не напутал? 

не хаос #:
кто проверял данные

Еще раз - погугли, как происходит создание моделей и какие алгоритмы используются. Конечно же никто руками не проверяет данные, точноое ручная проверка это очень малый процент. В основном эвристические модели, векторизация данных и отбрасывание дубликатов, с низким similarty score,  поиск аномалий, семанимческий фильтр... Твой бред точно не попадет ни в одну модель. Чтоб научить  отвечать как ты - надо хорошо постараться и все равно модель умнее))

Devstory #:
Перестал в последнее время вообще пользоваться гопотой ,  дипсиком и прочими генераторами. В реальности нельзя с ними не текст писать для статей  , ни картинки , ни видео генерить. Карточки для озона сделайте через нейросеть? Интернет магазин адекватный ?  Только реальные, конкурентоспособные и конверсионные .  Нет, ничего не возможно, только самому. Все кто считает иначе теоретики и по прежнему прошу от них ссылку на аналог озона который им гопота нагенерит за один промпт 

Ух ты, руководитель отдела в международной компании, занимается карточками для Озона?? Это как таксист, который таксует для души? Забавненько...

Не знаю как магазин для Озона, но мне ИИ очень сильно помогает писать сервис, избавил от рутины, занимаюсь исключительно логикой приложения. Причем даже фронтенд  генерит адекватный. 
Может, все таки надо научиться пользоваться?

не хаос #:
Жпт учился на текстах. А кто проверял сначала вручную эти тексты с экспертной, научной точки зрения, никак не могу взять в толк? 

Вот если бы ты хотя бы немного читал, что тут пишут - нашел бы информацию, как создаются, тренируются модели, сколько групп задействовано при тренировке и какие, как отбрасываются ошибки и итд. Но тебе же это не надо, тебе нужно постить бред тут...

Delysid #:

Разлочил perplexity без PRO подписки. 😁 

Невероятно, ты действительно школьник, такую чушь нести... Сообщения в чате это называется разлочил? 🤣
модель может подключаться приерно так:

class OpenAIManager:
    """Менеджер для работы с OpenAI API"""
    
    def __init__(self):
        self.client = client
    
    async def create_chat_completion(
        self,
        messages: List[Dict[str, str]],
        model: str = "gpt-4o-mini",
        temperature: float = 0.7,
        max_completion_tokens: Optional[int] = None,
        stream: bool = False

с проверкой твоего аккаунта и наличия подписок. Никакая чушь в чате не сможет изменить этот код  внутри перплексити

master32 #:
так то я запускаю локально 30в 16fp и 70в квантованную до 4-8 abliterated модели там без цензуры)

А на какой машине?

Владимир Коток :
С точки зрения квантовой механики и цитируя самого Альберта Эйнштейна, "Луна существует только потому, что на неё смотрит мышь".

Эйнштейн как раз и опровергал эту теорию, а ты выдумываешь ерунду. Это код реальности только с точки зрения философии, к науке и к квантовой физике не имеет никакого отношения

master32 #:

до обучения руки не дошли, пока только лоры с фейссвапами тренил,
все настолько быстро устаревает, что не имеет смысла использовать локальные модели, когда по апишкам и дешевле и свежее
так то я запускаю локально 30в 16fp и 70в квантованную до 4-8 abliterated модели там без цензуры)

Это точно. Я написал себе АИ сервис на локальной модели gemma3, под нее машина нужна с минимум 6ГВ оперативы. Дешевле 1М токенов за 40 центов купить и радоваться жизни. 

master32 #:
у меня основа агентов на гуардрейлах, когда каждая ошибочная генерация отбрасывается, это позволяет менять веса и делать вещи на дешевых моделях,
например на опусе4 есть подобная встроенная фича, но я не понял, как ей управлять и задавать свои параметры)

Именно потому что встроенная, ей невозможно управлять. С помощью ГР можно дообучать простые модели и менять веса ответов, но это всего лишь приближение к возможностям того же ГПТ.  Типа "умный SLM для бедных ". Ну и для этого нормальная видюха нужно от 8 гиг ВРАМ

alaev #:
Ключевое слово - генерация. Я про генерацию и пишу.

Ты когда нибудь пробовал расшифровать само слово - GPT? 

GPT (Generative Pre-trained Transformer) — это тип модели искусственного интеллекта, разработанный для обработки и генерации текста, похожего на человеческий. Она основана на архитектуре трансформеров, которая широко используется в обработке естественного языка (NLP). GPT обучается на огромных объемах текстовых данных, чтобы понимать контекст и генерировать связные ответы, переводы, тексты или даже код.

Кто-то тут утверждал обратное? Разум в транзисторах пока что ищешь только ты.

alaev #:
Нового он ничего не создаёт. В науках ноль. Уровень пэтэушника.
ИИ-модель, разработанная специалистами из Университет Эмори (США), «фактически сама по себе открыла новую физику». Подробнее пишет издание Popula Mechanics. Новые лекарства, аналитические системы... Масса новых систем, которые бы были невозможны без ИИ. Пора бы уже подняться с уровня птушника и посмотреть что в мире происходит.
Delysid #:

Дело в том, что многие пользователи умеют менять профиля в AI, уменьшать задержку, увеличивать мощности.

Умеют подключенные билды отключать или удалять, умеют манеру поведения настроенную по умолчанию изменять.

ОМГ, генератор бесполезного текста. Даже не понимаешь разницы между LLM и агентом. Какие ты еще профили настраиваешь в LLM? 

Всего: 7322