Да как он может разобраться, он постит например такое:
И не понимает, для чего нужны тензорные ядра и в принципе что это)
Все прекрасно понимают, что ты только гуглишь.. 😁
А у меня был ответ на то, что OpenAI возмущается и у неё якобы украли разработки.
Собственно это ты гуглишь. Для меня эта либа - профессиональный инструмент ежедневного использования и так как я за это получаю деньги, обязан знать все юридические последствия. Тем более что работаю на юридическое агентство.
И если бы ты умел читать нормально, то понял бы что ОпенАИ предполагает что был использован ее АПи для ганарации модели. А не открытая библиотека для работы API.Ты как обычно услышал звон, не понял откуда он. Побежал строчить, да все мимо.
либа openai дефакто уже стандарт для работы с апишкой любой модели, это опенсорсная библиотека, которой можно пользоваться для работы с чем угодно - гугл, мета, клауд итд.
Опять вбросик дешманский. тебе на одно поле с арбнетом, не понимающим как живет мир настоящей разработки.
Ты хотя бы на свой скрин посмотри, потом лезь спорить.
как ты это проверил?
Да, но уровень...
Пока что это самое вероятное что могло быть
Это твои личные фантазии и сказки. На видеопроцессорах обсчет идет на порядки быстрее. И дипсик точно также как и все их использует, только ему их надо меньше. Прежеде чем идти спорить, разберись в чем разница между обычным и видепроцессором и почему на видеокартах процесс происходит быстрее. А так -то да, и на калькуляторе можно посчитать, если задаться целью.
У нас вчера проходил очередной оффлайн митап и половину его уделили обсуждению Deepseek. Ты по факту сам проверил отличия. Достоверность и точность ответов модели, обученной на меньшем наборе данных падает. По сути, китайцы попытались найти баланс затрат и эффективность. Нашли такой обьем мощностей, который позволил приблизиться к топовым генеративным моделям, используя меньше данных и железа. Надо понимать что дипсик сильно зацензурирован по сравнению с тем же клауд и опенаи. При этом например даные по кодингу сопоставимы примерно будут. На выходных напишу промпты и устрою компетишен между популярными моделями)
Сорри, не бесплатный а с дисконтом. не по 0.27 а по 0.14 аутпуты
это цена на deepseek-chat и только до 8 февраля
[Pricing Notice]
1. The deepseek-chat model will be charged at the discounted historical rate until 16:00 on February 8, 2025 (UTC). After that, it will be charged at $0.27 per million input tokens and $1.10 per million output tokens.
Читай внимательно! до 8-го он бесплатный, потом по 0.27 за 1М