Sly32

Рейтинг
370
Регистрация
29.03.2012
alexbez #:
Ну вот, а теперь также разберись что там с разницей между CPU и GPU.

Да как он может разобраться, он постит например такое:

Delysid #:
Чистая правда! Причём видеокарты только с тензорными ядрами без AI ядер.

И не понимает, для чего нужны тензорные ядра и  в принципе что это) 

Delysid #:

Все прекрасно понимают, что ты только гуглишь.. 😁

А у меня был ответ на то, что OpenAI возмущается и у неё якобы украли разработки.

Собственно это ты гуглишь. Для меня эта либа - профессиональный инструмент ежедневного использования и так как я за это получаю деньги, обязан знать все юридические последствия. Тем более что работаю на юридическое агентство.

И если бы ты умел читать нормально, то понял бы что ОпенАИ  предполагает что был использован ее АПи для  ганарации модели. 
А не открытая библиотека для работы  API.
Ты как обычно услышал звон, не понял откуда он. Побежал строчить, да все мимо.

Delysid #:
Дело в том, библиотеки DeepSeek полностью совместимы с библиотеками OpenAI.

либа openai дефакто уже стандарт для работы с апишкой любой модели, это опенсорсная библиотека, которой можно пользоваться для работы с чем угодно - гугл, мета, клауд итд.

Опять вбросик дешманский. тебе на одно поле с арбнетом, не понимающим как живет мир настоящей разработки.

Delysid #:
Хватит уже сочинять ничего не зная, даже NVIDIA согласилась в победе..

Ты хотя бы на свой скрин посмотри, потом  лезь спорить.

chaturanga #:
Зацензурирован не deepseek, а сам сайт. В локально развернутых регулирования нет.

как ты это проверил?

chaturanga #:
Ну и, собственно, зацензурированы все модели (их сайты), просто с разным alignment.

Да, но уровень...

png screenshot_2025-01-29_at_11.04.21.png
png screenshot_2025-01-29_at_11.03.32.png
vitaliy11 #:
Согласно данным OpenAI, DeepSeek якобы применяла метод "дистилляции"

Пока что это самое вероятное что могло быть

Delysid #:
Разница лишь в том, что не нужны этому чату китайскому чипы nvidia сделанные для AI в серверы. Этот чат вполне работает на простых процессорах.

Это твои личные фантазии и сказки. На видеопроцессорах обсчет идет на порядки быстрее. И дипсик точно также как и все их использует, только ему их надо меньше. Прежеде чем идти спорить, разберись в чем разница между обычным и видепроцессором и почему на видеокартах  процесс происходит быстрее. А так -то да, и на калькуляторе можно посчитать, если задаться целью. 

Samail #:
Для эксперимента скачал локальную версию — deepseek-r1-distill-qwen-7b — и сравнил ответы на простые вопросы на полной версии и той, которую большинство сможет запустить на своем ПК .

У нас вчера проходил очередной оффлайн митап и половину его уделили  обсуждению Deepseek. Ты по факту сам проверил отличия. Достоверность и точность ответов модели, обученной на меньшем наборе данных падает. По сути, китайцы попытались найти баланс затрат и эффективность. Нашли такой обьем мощностей, который позволил приблизиться к топовым генеративным моделям, используя меньше данных и железа. Надо понимать что  дипсик сильно зацензурирован по сравнению с тем же клауд и опенаи. При этом например даные по кодингу сопоставимы примерно будут. На выходных напишу промпты и устрою компетишен между популярными моделями)

Плевать js на вашу верстку. Он ищет элементы формы по name=„xxx” все остальное его не волнует
Samail #:
Где написано что он бесплатный (я про api, модель  deepseek-chat )

Сорри, не бесплатный а с дисконтом. не по 0.27 а по 0.14 аутпуты

Samail #:

это цена на  deepseek-chat и только до 8 февраля

[Pricing Notice]

1. The deepseek-chat model will be charged at the discounted historical rate until 16:00 on February 8, 2025 (UTC). After that, it will be charged at $0.27 per million input tokens and $1.10 per million output tokens.

Читай внимательно! до 8-го он бесплатный, потом по 0.27 за 1М

Всего: 7322