Новый детектор ИИ для русских текстов, просьба протестировать и дать обратную связь

M3
На сайте с 09.02.2022
Offline
119
#61
Sly32 #:
посоветуешь локальную модель хорошую? 
смотря для чего, включать светодиод по событию с помощью llm можно, а чудес расчудесных от таких моделей можно не ждать)
конкретно из последних использовал UI-TARS и MAI-UI, для специфичного закрывания всплывашек рекламы на мобилках)
из локальных рабочих моделей стоит пробовать запускать qwen 3.5 чем старше тем лучше, или glm5 но она тяжелее сомневаюсь что ноута хватит, все остальное хуже по моим наблюдениям
мой повседневный топ юзфул это codex 5.4, opus 4.6, gemini 3.1, grog 4.2
гоняться и выбирать лучше/дешевле не имеет смысла, через 1-3-6 месяцев все изменится)

S3
На сайте с 29.03.2012
Online
373
#62
master32 #:
мой повседневный топ юзфул это codex 5.4, opus 4.6, gemini 3.1, grog 4.2
Я тоже сейчас юзаю  codex 5.4. Но это все АПИ. Хочу локально развернуть модель для  "бедных", кому жаль платить за токены) Это для вебсервисов, типа бесплатная и платная версия. Сейчас разбираюсь с кэшем для Anthropic,  ПОмсотрю насколко удешевляет.
M3
На сайте с 09.02.2022
Offline
119
#63
Sly32 #:
Хочу локально развернуть модель для  "бедных", кому жаль платить за токены
оно тебе нафиг не нужно, возьми gemini flash для бедных студентов и преподов, 100м токенов за $10)
нормально работающие локальные модели от 70B под rtx6000 96gb, еще куда ни шло, остальное под узкоспецифические задачи, но это все быстро устареет, поэтому не вижу смысла их тестировать
5090 можно взять в аренду за $150/m и там развернуть какой-нибудь дистилированный дипсик, дешевле только апи из логов юзать, но это уже серая тема)
мой вердикт - бери дешевый апи от гугла и ставь ограничение на пользователя по токенам, самый оптимальный и быстрый вариант

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий