Это никак не относится к созданию моделей ЛЛМ, кастомная работа. Ты же говоришь про попадание ошибочных данных в ЛЛМ - этим занимаются OpenAi, Grok, Meta и другие. Обучать готовую модель работать с данными, чем мы и занимаемся, писать агенты - совсем другое. Столько сидишь в этой теме и не понимаешь разницы, печально...
в какой еще медицине в моей фирме? Ты ничего не напутал?
Еще раз - погугли, как происходит создание моделей и какие алгоритмы используются. Конечно же никто руками не проверяет данные, точноое ручная проверка это очень малый процент. В основном эвристические модели, векторизация данных и отбрасывание дубликатов, с низким similarty score, поиск аномалий, семанимческий фильтр... Твой бред точно не попадет ни в одну модель. Чтоб научить отвечать как ты - надо хорошо постараться и все равно модель умнее))
Ух ты, руководитель отдела в международной компании, занимается карточками для Озона?? Это как таксист, который таксует для души? Забавненько...
Не знаю как магазин для Озона, но мне ИИ очень сильно помогает писать сервис, избавил от рутины, занимаюсь исключительно логикой приложения. Причем даже фронтенд генерит адекватный. Может, все таки надо научиться пользоваться?
Вот если бы ты хотя бы немного читал, что тут пишут - нашел бы информацию, как создаются, тренируются модели, сколько групп задействовано при тренировке и какие, как отбрасываются ошибки и итд. Но тебе же это не надо, тебе нужно постить бред тут...
Разлочил perplexity без PRO подписки. 😁
Невероятно, ты действительно школьник, такую чушь нести... Сообщения в чате это называется разлочил? 🤣модель может подключаться приерно так:
class OpenAIManager: """Менеджер для работы с OpenAI API""" def __init__(self): self.client = client async def create_chat_completion( self, messages: List[Dict[str, str]], model: str = "gpt-4o-mini", temperature: float = 0.7, max_completion_tokens: Optional[int] = None, stream: bool = False
с проверкой твоего аккаунта и наличия подписок. Никакая чушь в чате не сможет изменить этот код внутри перплексити
А на какой машине?
Эйнштейн как раз и опровергал эту теорию, а ты выдумываешь ерунду. Это код реальности только с точки зрения философии, к науке и к квантовой физике не имеет никакого отношения
до обучения руки не дошли, пока только лоры с фейссвапами тренил, все настолько быстро устаревает, что не имеет смысла использовать локальные модели, когда по апишкам и дешевле и свежеетак то я запускаю локально 30в 16fp и 70в квантованную до 4-8 abliterated модели там без цензуры)
Это точно. Я написал себе АИ сервис на локальной модели gemma3, под нее машина нужна с минимум 6ГВ оперативы. Дешевле 1М токенов за 40 центов купить и радоваться жизни.
Именно потому что встроенная, ей невозможно управлять. С помощью ГР можно дообучать простые модели и менять веса ответов, но это всего лишь приближение к возможностям того же ГПТ. Типа "умный SLM для бедных ". Ну и для этого нормальная видюха нужно от 8 гиг ВРАМ
Ты когда нибудь пробовал расшифровать само слово - GPT?
GPT (Generative Pre-trained Transformer) — это тип модели искусственного интеллекта, разработанный для обработки и генерации текста, похожего на человеческий. Она основана на архитектуре трансформеров, которая широко используется в обработке естественного языка (NLP). GPT обучается на огромных объемах текстовых данных, чтобы понимать контекст и генерировать связные ответы, переводы, тексты или даже код.
Кто-то тут утверждал обратное? Разум в транзисторах пока что ищешь только ты.
Дело в том, что многие пользователи умеют менять профиля в AI, уменьшать задержку, увеличивать мощности.
Умеют подключенные билды отключать или удалять, умеют манеру поведения настроенную по умолчанию изменять.
ОМГ, генератор бесполезного текста. Даже не понимаешь разницы между LLM и агентом. Какие ты еще профили настраиваешь в LLM?