ну вот круг и замкнулся...
int rand(){ return 42;}
LLM - это механизм выявления/эксплуатации паттернов. Её задача предсказать следующий токен и это предсказание не будет однозначным. В момент когда модель получит запрос которого нет в массиве её данных она начнёт галлюцинировать.
И собственно "ошибаться" даже в простой арифметике
Это не хорошо и не плохо, недетерменированность - это её "нормальность"
Ты можешь повторяться сколько угодно, но по факту сервис работает очень даже годно. Не знаю, зачем он нужен, но свою задачу выполняет в большинстве случаев.
Пусть он не дает стопроцентной гарантии. Но почему ты решил что там все на основе ИИ?
я не сказал всё - я сказал, что это (пусть малая часть) приводит к недетерменированности.
тупо играем в орёл или решку.
одна и таже гуглопереведёнка, 4 запроса.
с
сервис может ошибаться, допускать false positive, но он должен быть однозначным.
AI "математически" не допускает этого.
внешняя связанность каналов BY завязана на RU на 80%+
как запасной вариант, ДА, как решение НЕТ
ну и просто гултранслейт :)
Ну и просто "лобовой" первод gemini, с сохранением спцифичных кавычек и тире.
Покидал куски своих статей с хабра.То что проиндексировано считает живым текстом (соотвественно выдаёт ссылку).То что давно в черновиках и остутствует в поиске считает генерёнкой.Учитывая, что стилистика/авторство текстов неизменно, то как будто основывается на критерии нахождения в поиске...
что собственно и подтвердилось