Sly32

Рейтинг
372
Регистрация
29.03.2012
не хаос #:

Не нужно, я думал ты по человечески объяснишь все толком, для тех кто не учил это. Ладно, сам погуглю, коли так.

Входной текст:
"Я люблю читать книги"

1. Преобразование слов в векторы (эмбеддинги):
[Я]      →  v1
[люблю]  →  v2
[читать] →  v3
[книги]  →  v4

2. Self-Attention (каждое слово "смотрит" на все остальные):
v1' = f(v1, v2, v3, v4)
v2' = f(v2, v1, v3, v4)
v3' = f(v3, v1, v2, v4)
v4' = f(v4, v1, v2, v3)

(результат — контекстно-зависимые векторы)

3. Feed-Forward слой:
Каждый вектор проходит через нейронную сеть → улучшается представление смысла

4. Выход:
- Если трансформер декодерный (например GPT): генерируется следующее слово
- Если энкодерный (например BERT): получаем векторное представление всей последовательности

Проще я не знаю уже как

не хаос #:

Хорошо. Тогда скажи принцип по которому ИИ отбраковывает неработающий код перед тем как дать его в выдачу.

в трансформере есть механизм self-attention, который формирует ответ. Нужно рассказывать в 10-й раз что такое трансформеры, токены и прочие составные части LLM?

plab #:
ИИ обыграл человека в шахматы еще в 80-х.

И опять двадцать пять... Человека обыграл Deep Blue - суперкомпьютер использующий алгоритм поиска наиболее вероятных ходов на основе зеложенных партий. Это не ИИ
Современный AlphaZero, работающий на ИИ, выиграет у него с легкостью. При том что его можно запустить на обычном компе. И там другой принцип - он сам себя обучал. 

plab #:
Реальные задачи на полчаса думать - это коммерческая тайна. Чтобы придумать реальную задачу, надо хорошо знать реальный мир и отрасль приложения конкретной разработки. ИИ такое не может.

Ну так давай и проверим?

не хаос #:
То есть тырит его с гитхаба но только если все отзывы положительные о нем.

ОМГ 🤣 Ты серьезно так думаешь?

plab #:

Так люди выкладывают свой код, зная что это к примеру абстрактный (а не рабочий) пример, что программа не доделана, что вопрос задает нуб, что отвечают ему кое-как. Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое. Оно лучше самого конченого кода, но хуже реально используемого при написании рабочих прог.

А давай сравним? Я придумываю задачу, на решение которой надо примерно полчаса, ты тоже. Ты постишь свое решение, я - ответ от ИИ и потом даю твое решение на проверку агенту, ты комментируешь его. А Обчество сравнит кто лучше решит и оценит кто говнокодер а кто профи))) А пока что написал агента, который ходит по форуму и смотрит, если его кто-то тегнул с просьбой помочь решить задачку - постит решение.


plab #:
А с чего ты решил, что тот, кто пихает инфу в модели, умнее того, кто делает сайты?

Я в этом даже не сомневаюсь. Ну возьми, попробуй устройся в OpenAI )))  Я вот очень жалею, что в свое время не пошел в DataScience.  А сейчас реально знаний не хватает. Даже той же математики. Сайты делать - это самая низшая каста в айти, особенно на уровне  как здесь спициалисты по пхп)) плагиноустанавливальщики))

юни #:
Вопрос, что делать с контентом сиюминутным, вроде новостей. Особенно, если они хорошо поддаются манипуляциям и спекуляциям. Например, таковыми являются 100% политических (идеологических) и большая часть экономических данных.

Непонимание принципов работы генеративных моделей и приводит вот к таком бесполезному флуду. Модель можно обучить на "Война и мир ", а можно на "Приключения бравого солдата Швейка" Какая будет правдивее? В этом и суть модели - сделать что-то универсальное. А для индивидуальных хотелок есть определенные инструменты, позволяющие нейросети генерировать ответы согласно требованиям собеседника. Попросите ее врать - она и будет это делать. 

Vladimir SEO #:
прямая, не будет статей - не будет данных в нейросети. Это же очевидно 

Ты всерьез считаешь, что нейросеть обучается по статьям с инфошечек? мдя...  Так, к слову, существующих данны достаточно для обучения нейросетей на десятилетия вперед. Новая модель, вот например GPT-5 это не только новые данные, хотя несомненно, что в обучение добавляют свежее. Самое важное - новые алгоритмы, как уже убедились, они могут и ухудшить работу. 

А я собственно и работаю сейчас на одно из крупнейших мировых информационных агенств. И вижу какое бабло они тратят на все эти нейросети.

Vladimir SEO #:
да просто интересно - где ? реально количество статейников будет падать изза ии ответов , ибо нету трафика - нету денег с адсенса

Ты пытаешься смешать в один вопрос разные вещи и ждешь ответа. Какая связь между данными в нейросети, на которых она обучается и статьями в поиске? Ты прям думаешь, написал условный Вася сайт и тут же чатГПТ побежал его забирать?  Это не так работает. Это не поисковый краулер, там другая задача. Кароче, инфы в сети достаточно, как это работает, ищите и читайте, если интересно.

Vladimir K #:
Думаешь при обновлении базы, если размещение было верным и достаточным в количестве, не съест ?

Открывать пора платные курсы тут на форуме, по чтению для начала.  Количество никак не влияет, дупликаты отбрасываются. Термин "верное размещение"  мне непонятен. Нейромодели оперируют своими понятиями, из которых векторное сходство - самое простое. Любая информация будет сначала сравниваться с эталонными данными, допустим академическими дисциплинами, науками, а все это количество, ссылки - для нейросети ненужная информация. 

Vladimir SEO #:
тут важный вопрос - где брать новый контент если инфо сайты сдуются грубо говоря ? 

Вы сговорились, да?

Всего: 7407