Не вижу смысла сравнивать его с человеками, про них я давно составил свое мнение. Интереснее сравнить с другими моделями
Просто ты не сможешь такое реализовать. Потому отмазы
Ничего ты не делаешь, опять сказки. Это то, с чего начинает любой кто хочет поработать с ЛЛМ. Ты вот даеж не погуглил нормально, прочитал что я и другие тут раньше писали. У тебя даже шаблон не изменился.
А слабо обьяснить что не подходит? забавно, если бы ты понимал о чем пишешь, ты бы упомянул прародителя - LLama.cpp и ее поюзал бы.Тулов для ЛЛМ локальных огромное множество, которые пишутся и поддерживаются профессионалами. Никакого смысла нет писать что-то свое. Это не решит никакую задачу.
мою работу ты в жизни не сделаешь. Это была простенькая задачка в рамках курилки этого форума. Но ты даже ее не смог сделать.
Ради интереса зашел в калькулятор посчитать стоимость. Его кстати, довольно сильно поменяли с тех пор как я им пользовался. Я обычно сразу в нужных ресурсах смотрю.Вон например расчет:
То есть примерно 26 баксов в месяц за 4vCPU+8RAM Под основную машину + 8Х8 За базу данных. Хотя можно все поднять в одном инстансе, но мы же хотим надежности. НЕ такая уж и неподьемная цена имхо
Как только мне захочется пообщаться с кем-то, абсолютно некомпетентным во всех вопросах, тем кто лезет затычкой в любую бочку, кто любит поучать, не владея какими-то компетенциями, кто не в состоянии потестить даже предоставленный сервис - я сразу же тебе отвечу. А пока не мешай взрослым дядям разговаривать, иди учи, почему нельзя "сделать запрос по REST API" чтобы твой диплом по "питону" не отозвали 😂