не хаос

не хаос
Рейтинг
92
Регистрация
18.10.2021
Такие качели здорово расшатывают нервную систему. Яндекс, позаботься о нашем психическом здоровье.
Рецепт прост: увеличение трафика и поиск прямых рекламодателей. Всё остальное – психотерапевтические сеансы для самоуспокоения.
Крутите аккуратно, чтобы не спалиться, рандомно имитируя заходы с разных устройств
Время ПС безвозвратно уходит, зачем эти неудобные монстры, когда можно получить сжатый ответ на любой вопрос кроме новостей и новых научных статей.
Похоже что и старая модель монетизации контента статейников через рекламную службу накрылась медным тазом.
Нашей доморощенной ПС тоже нужно срочно создавать о3, а то юзеры туда поразбегутся, там будут искать информацию
Писали здесь, не вспомню уже кто, что они неправдоподобную имитацию, когда заходят на страницу ниже топ десять выдачи, вычисляют.
"OpenAI выпустят мощнейшую модель (o3) уже сегодня — компанию поразил релиз DeepSeek


Что известно:


• В тестах на сверх-интеллект она смогла обойти результаты людей

• Модель на 30% круче справляется с кодом и математикой, в сравнении с предыдущей o1.

• Она занимает 175 место в рейтинге программистов МИРА.

• Из-за проблем с китайцами o3-mini пообещали раздать БЕСПЛАТНО. 


Все на низком старте?" (С)


📢 Айтишная

В плане написания статей сервис простенький.
Вот они и попользовались этим открытым доступом от души. Кулибины местные.
"Указать на одну инновацию, за счет использования которой это было сделано, невозможно: модель имеет сразу несколько важных особенностей, которые в сочетании друг с другом позволили оптимизировать вычислительные ресурсы и достичь заявленных результатов.

Ни одна из них, однако, не является чем-то принципиально новым для современных больших языковых моделей, построенных на архитектуре трансформера. В модели, например, используется одновременное предсказание не одного, а нескольких следующих токенов, что позволяет ускорить и удешевить генерацию текста. Такое изменение в исходной архитектуре трансформера в индустрии обсуждали еще с 2020 года, но его неохотно внедряли в современные модели. Другая особенность новой модели — технология multi-headed latent attention, позволяющая акцентировать внимание на определенных частях предложения и эффективнее использовать вычислительные ресурсы при обучении.

Кроме того, в вычислениях модели используют числовые типы с плавающей запятой пониженной точности: 16- и 8-битных. Теоретически это позволяет снизить требования по использованию памяти в вычислениях, но имеет свои недостатки, степень важности которых зависит от конкретной реализации алгоритма. Использованию таких типов в машинном обучении посвящены десятки научных статей — например, сотрудники Nvidia предлагалииспользовать такой подход и разрабатывали алгоритмы на его основе еще в 2022 году).

Китайский ИИ (предсказуемо) цензурирует некоторые ответы. А разработчиков подозревают в использовании чужих данных для обучения

Именно сокращение вычислительных ресурсов, необходимых для обучения модели, вызвало резкую реакцию на американском фондовом рынке. Газета The New York Times пишет, что сейчас ведущим мировым компаниям для обучения ИИ-моделей нужно от 16 тысяч чипов. Инженеры DeepSeek заявили, что использовали в восемь раз меньше.

До сих пор считалось, что разработкой ИИ-систем могут заниматься только технологические гиганты и стартапы, обеспечившие себе огромные инвестиции. Пример DeepSeek (возможно) показал, что аналогичных результатов можно добиться с гораздо меньшими ресурсами. Это пошатнуло веру инвесторов в бум искусственного интеллекта в США, и конкретно — в будущее Nvidia, чипы которой используются при создании ИИ-моделей.

Западные медиа уже назвали запуск DeepSeek «моментом спутника», то есть переломным эпизодом, который должен заставить всех лидеров в области искусственного интеллекта пересмотреть свой подход к разработке. " (с) Медуза - лайв

Всего: 1679