Sly32

Рейтинг
377
Регистрация
29.03.2012
Должность
Software engineer
Это же до какой степени нужно довести тачку, что стружку магнитом ловить 🤣. Масло небось подсолнечное льешь раз в 50 тыс?
Artisan #:
обычно масляный насос сосёт масло из картера не через масляный фильтр, а через грубую сетку, которая пропускает мелкую дрянь, и жуёт эту мелкую дрянь со всего мотора, поэтому магнитный болт в картере может быть очень полезен для защиты масляного насоса, даже при идеальном качестве масляного фильтра.

Ты же вроде высшее образование имеешь - давай посчитаем, сколько стружки сможет притянуть такая пробка? Учитывая вязкость масла и его поток в поддоне? И также мощность магнитной пробки?

Эта хрень притянет к себе пару стружек, которые упадут прямо на нее ПОСЛЕ остановки двигателя. Это мизерный процент. Если при замене масла  вы видите "ежика" на пробке - пора менять двигатель)))

nikdiv :
С ИИ как? Это всё тот же php?

Какой php? ОпенАИ даже не имеет нативного клиента для работы со своим АПИ. А в остальном - обычная работа - заказываете, платите - получаете. Никакого волшебства нет там.

alaev #:
Оказывается, что я живу в Калифорнии. Это фигня. Реклама на английском на ютупе надоела. Ютуп тоже палит DNS, часовые настройки, язык?

И не только. Я работаю в Ажуровской виртуалке, которая размещена в Америке, через нее я подключаюсь к еще одной, суперзапароленной и засекреченной, куда сильно ограниченный доступ. Рабочий комп  - Мак, обе виртуалки  Винда 11. В каждой виртуалке работает свой ВПН. И все равно самая глубокая виртуалка если видит, что на моем Маке включена русская раскладка - переключается на нее.

sillybilly #:
нет

Тут нужно понимать о чем и когда мы говорим. Да, в 90-е годы  Deep Blue считали  ИИ. По современным понятиям - нет. Это узкоспециализированный компьютер, обученный играть в шахматы, но не способный обучаться.
С точки зрения сегодняшнего дня — это не «нейросетевой ИИ», а жёстко запрограммированный экспертный алгоритм.

Нейросеть - подраздел понятия "ИИ"

Сергей про е-ком #:

Да, у меня задача как раз в классификации и объединению по смыслам. БЕРТ отрабатывает только ембединги, но именно привязывать разные схожие по смыслу вещи у меня им не получилось. Вообще я давно хотел тебе написать / позвонить по этой теме. )

тебе нужен  Sentence-BERT тогда

sillybilly #:
странно от Вас это слышать. Deep Blue это ИИ, но не нейросеть.

Не выдумывайте своих терминов, плиз. Нейросеть и ИИ  - синонимы LLM gpt-agent -  все это подразумевает использование моделей, построенных по определенным алгоритмам.

♟️ Deep Blue (IBM, 1997)

Что это было:

  • Специализированный суперкомпьютер.

  • Задача только одна — шахматы.

⚙️ Метод работы:

  • Перебор всех возможных вариантов ходов (около 200 млн позиций/сек).

  • Алгоритм minimax + альфа-бета отсечение.

  • База дебютов и эндшпилей, прописанная вручную гроссмейстерами.

  • Оценочная функция: «ценность позиции» считалась на основе сотен заранее заданных правил (например, пешка = 1, ферзь = 9, контроль центра и т.п.).

📊 Особенности:

  • Никакого самообучения.

  • Все знания и правила внесены программистами и шахматистами.

  • Выиграл у Каспарова за счёт скорости расчётов и базы.


    🤖 AlphaZero (DeepMind, 2017)

    Что это:

    • Универсальный ИИ на основе нейросетей.

    • Играл не только в шахматы, но и в го, сёги.

    ⚙️ Метод работы:

    • Алгоритм обучения с подкреплением (reinforcement learning).

    • Играл сам с собой миллионы партий, без стартовой базы дебютов или эндшпилей.

    • Использовал глубокую нейросеть для оценки позиции и выбора хода.

    • Вместо простого перебора → комбинация обучения + поиск Монте-Карло (MCTS).

    📊 Особенности:

    • Никаких «человеческих» правил — ИИ сам открывал новые стратегии.

    • Выучил «чуждую человеку» шахматную эстетику (жертвы фигур ради позиционного преимущества).

    • За несколько часов игры с самим собой достиг уровня, превосходящего Stockfish (лучший шахматный движок на тот момент).

Сергей про е-ком #:
То, что он не думает. ) Ну, точнее, он не проводит векторы так, чтобы объединять по принципу.

все равно не понял. БЕРТ это не обычная ЛЛМ, он не для генерации а для классификации, там нет послойного декодирования токенов. В GPT - есть и он для генерации лучше

Сергей про е-ком #:
Тоже чего-то не понял, куда Ваш вектор соскользнул.

Это обычное соскакивание с темы, когда что-то ляпнул, а подтвердить слабо - вот и начинается увод в сторону

Сергей про е-ком #:
Эмбеддинги на Берти, кстати, работают очень печально.

А что с ними там не так? Это как раз очень сильный двунаправленный энкодер, один из лучших для NLP

plab #:

Ну выкладывай что тебе придумал ИИ, чтобы денег заработать.

Идей может быть много.

Ты вообще помнишь о чем речь была? При чем тут идеи? Напоминаю -твое утверждение:

plab #:
Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое.

При чем тут идеи, если мы говорим про качество кода?

plab #:
Все прогеры-люди различают, чему можно подражать, что можно взять целиком, а что надо подгонять, где учебное кодо-дерьмецо, а где код профи. ИИ даже этого сделать не может - отделить зерна от плевел. Он жрет все - и ложь и правду. Находит в этом среднестатистическое.

Уверен? давай какую свою старую идею - прогоним через ИИ - сможет ли он ее улучшить?
Я часто свои закидываю и он мне дает дельные советы по улучшению
В бизнес-аналитике давно уже применяется и успешно

не хаос #:

Не нужно, я думал ты по человечески объяснишь все толком, для тех кто не учил это. Ладно, сам погуглю, коли так.

Входной текст:
"Я люблю читать книги"

1. Преобразование слов в векторы (эмбеддинги):
[Я]      →  v1
[люблю]  →  v2
[читать] →  v3
[книги]  →  v4

2. Self-Attention (каждое слово "смотрит" на все остальные):
v1' = f(v1, v2, v3, v4)
v2' = f(v2, v1, v3, v4)
v3' = f(v3, v1, v2, v4)
v4' = f(v4, v1, v2, v3)

(результат — контекстно-зависимые векторы)

3. Feed-Forward слой:
Каждый вектор проходит через нейронную сеть → улучшается представление смысла

4. Выход:
- Если трансформер декодерный (например GPT): генерируется следующее слово
- Если энкодерный (например BERT): получаем векторное представление всей последовательности

Проще я не знаю уже как

Всего: 7666