Sly32

Рейтинг
367
Регистрация
29.03.2012
sillybilly #:
странно от Вас это слышать. Deep Blue это ИИ, но не нейросеть.

Не выдумывайте своих терминов, плиз. Нейросеть и ИИ  - синонимы LLM gpt-agent -  все это подразумевает использование моделей, построенных по определенным алгоритмам.

♟️ Deep Blue (IBM, 1997)

Что это было:

  • Специализированный суперкомпьютер.

  • Задача только одна — шахматы.

⚙️ Метод работы:

  • Перебор всех возможных вариантов ходов (около 200 млн позиций/сек).

  • Алгоритм minimax + альфа-бета отсечение.

  • База дебютов и эндшпилей, прописанная вручную гроссмейстерами.

  • Оценочная функция: «ценность позиции» считалась на основе сотен заранее заданных правил (например, пешка = 1, ферзь = 9, контроль центра и т.п.).

📊 Особенности:

  • Никакого самообучения.

  • Все знания и правила внесены программистами и шахматистами.

  • Выиграл у Каспарова за счёт скорости расчётов и базы.


    🤖 AlphaZero (DeepMind, 2017)

    Что это:

    • Универсальный ИИ на основе нейросетей.

    • Играл не только в шахматы, но и в го, сёги.

    ⚙️ Метод работы:

    • Алгоритм обучения с подкреплением (reinforcement learning).

    • Играл сам с собой миллионы партий, без стартовой базы дебютов или эндшпилей.

    • Использовал глубокую нейросеть для оценки позиции и выбора хода.

    • Вместо простого перебора → комбинация обучения + поиск Монте-Карло (MCTS).

    📊 Особенности:

    • Никаких «человеческих» правил — ИИ сам открывал новые стратегии.

    • Выучил «чуждую человеку» шахматную эстетику (жертвы фигур ради позиционного преимущества).

    • За несколько часов игры с самим собой достиг уровня, превосходящего Stockfish (лучший шахматный движок на тот момент).

Сергей про е-ком #:
То, что он не думает. ) Ну, точнее, он не проводит векторы так, чтобы объединять по принципу.

все равно не понял. БЕРТ это не обычная ЛЛМ, он не для генерации а для классификации, там нет послойного декодирования токенов. В GPT - есть и он для генерации лучше

Сергей про е-ком #:
Тоже чего-то не понял, куда Ваш вектор соскользнул.

Это обычное соскакивание с темы, когда что-то ляпнул, а подтвердить слабо - вот и начинается увод в сторону

Сергей про е-ком #:
Эмбеддинги на Берти, кстати, работают очень печально.

А что с ними там не так? Это как раз очень сильный двунаправленный энкодер, один из лучших для NLP

plab #:

Ну выкладывай что тебе придумал ИИ, чтобы денег заработать.

Идей может быть много.

Ты вообще помнишь о чем речь была? При чем тут идеи? Напоминаю -твое утверждение:

plab #:
Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое.

При чем тут идеи, если мы говорим про качество кода?

plab #:
Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое.

Уверен? давай какую свою старую идею - прогоним через ИИ - сможет ли он ее улучшить?
Я часто свои закидываю и он мне дает дельные советы по улучшению
В бизнес-аналитике давно уже применяется и успешно

не хаос #:

Не нужно, я думал ты по человечески объяснишь все толком, для тех кто не учил это. Ладно, сам погуглю, коли так.

Входной текст:
"Я люблю читать книги"

1. Преобразование слов в векторы (эмбеддинги):
[Я]      →  v1
[люблю]  →  v2
[читать] →  v3
[книги]  →  v4

2. Self-Attention (каждое слово "смотрит" на все остальные):
v1' = f(v1, v2, v3, v4)
v2' = f(v2, v1, v3, v4)
v3' = f(v3, v1, v2, v4)
v4' = f(v4, v1, v2, v3)

(результат — контекстно-зависимые векторы)

3. Feed-Forward слой:
Каждый вектор проходит через нейронную сеть → улучшается представление смысла

4. Выход:
- Если трансформер декодерный (например GPT): генерируется следующее слово
- Если энкодерный (например BERT): получаем векторное представление всей последовательности

Проще я не знаю уже как

не хаос #:

Хорошо. Тогда скажи принцип по которому ИИ отбраковывает неработающий код перед тем как дать его в выдачу.

в трансформере есть механизм self-attention, который формирует ответ. Нужно рассказывать в 10-й раз что такое трансформеры, токены и прочие составные части LLM?

plab #:
ИИ обыграл человека в шахматы еще в 80-х.

И опять двадцать пять... Человека обыграл Deep Blue - суперкомпьютер использующий алгоритм поиска наиболее вероятных ходов на основе зеложенных партий. Это не ИИ
Современный AlphaZero, работающий на ИИ, выиграет у него с легкостью. При том что его можно запустить на обычном компе. И там другой принцип - он сам себя обучал. 

plab #:
Реальные задачи на полчаса думать - это коммерческая тайна. Чтобы придумать реальную задачу, надо хорошо знать реальный мир и отрасль приложения конкретной разработки. ИИ такое не может.

Ну так давай и проверим?

не хаос #:
То есть тырит его с гитхаба но только если все отзывы положительные о нем.

ОМГ 🤣 Ты серьезно так думаешь?

plab #:

Так люди выкладывают свой код, зная что это к примеру абстрактный (а не рабочий) пример, что программа не доделана, что вопрос задает нуб, что отвечают ему кое-как. Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое. Оно лучше самого конченого кода, но хуже реально используемого при написании рабочих прог.

А давай сравним? Я придумываю задачу, на решение которой надо примерно полчаса, ты тоже. Ты постишь свое решение, я - ответ от ИИ и потом даю твое решение на проверку агенту, ты комментируешь его. А Обчество сравнит кто лучше решит и оценит кто говнокодер а кто профи))) А пока что написал агента, который ходит по форуму и смотрит, если его кто-то тегнул с просьбой помочь решить задачку - постит решение.


plab #:
А с чего ты решил, что тот, кто пихает инфу в модели, умнее того, кто делает сайты?

Я в этом даже не сомневаюсь. Ну возьми, попробуй устройся в OpenAI )))  Я вот очень жалею, что в свое время не пошел в DataScience.  А сейчас реально знаний не хватает. Даже той же математики. Сайты делать - это самая низшая каста в айти, особенно на уровне  как здесь спициалисты по пхп)) плагиноустанавливальщики))

юни #:
Вопрос, что делать с контентом сиюминутным, вроде новостей. Особенно, если они хорошо поддаются манипуляциям и спекуляциям. Например, таковыми являются 100% политических (идеологических) и большая часть экономических данных.

Непонимание принципов работы генеративных моделей и приводит вот к таком бесполезному флуду. Модель можно обучить на "Война и мир ", а можно на "Приключения бравого солдата Швейка" Какая будет правдивее? В этом и суть модели - сделать что-то универсальное. А для индивидуальных хотелок есть определенные инструменты, позволяющие нейросети генерировать ответы согласно требованиям собеседника. Попросите ее врать - она и будет это делать. 

Всего: 7101