А что ты используешь для работы с Llama?
ollamaу меня мало врама, поэтому мелкие модели, это только для локал мини тестов, по ощущениям для каких-то простых задач норм)
Теоретически, или вам приходилось работать с большим кодом? В Canvas переходить нужно? Платить нужно? Сколько мегабайт кода загружали?
свежая фича, лучше первоисточник внимательно прочитать: https://help.openai.com/en/articles/10169521-using-projects-in-chatgpt
А зачем фото, можно же было двумя запросами, сначала "составь список 30 длинейших рек хххх", потом отсортируй по длине, или я что-то не понял.
Да мне не для практических нужд, просто столкнулся с этим раз, меня это сильно удивило, попробовал несколько раз, гпт не сортирует в таком виде, а Клауд сортирует или сразу или после первого уточняющего запроса.
бывает, там много ошибок, например, с радианами даже самая новейшая модель работает ужасно, покашт)
Пусть еще укажет вложения.
Держать активный городской портал - это не пассивный доход.
насколько я вижу 50-90% новостей активных соц пабликов присылают сами пользователи, остальное вбросы от админа/овно по кол-ву рекламы не вижу там 10-15 рекламых постов в день...
в ChatGPT создать папку проекта и туда загрузить файлы, и дальше работать с кодом
Ну вот после списка который он выдал в скрине на предыдущей странице, я сделал запрос "отсортируй по длине реки".
получилось так:
скормил фото, долго мучался, чтоб распознать текст на фото, но в итоге все отсортировал и вывел в правильном порядке на llama 3.2 11Bдумаю 4о тоже справится, ей нужно больше работать в JSON и python по инструкциям
Ну так отдельным запросом он их тоже не может отсортировать до конца. Именно это для меня, человека далекого от ИИ, и удивительно.
скинь запрос полностью, чего он не может отсортировать?
потому что он придумывает ответ на основе вероятности, и сам не знает, что ответит в итоге)поэтому сортировка данных это отдельный запрос и работа с уже известными данными)современные модели уже научились делать это во внутренних подзапросах, из-за этого страдает скорость ответа
сильно помогает, когда просишь ответ в "JSON-format {"name":?,"lenght":?}"
чуть времени пройдет, поисковики адаптируются к новым реалиям и за ошибочные данные будут тупо минусить сайты, а "ИИ" пока часто галлюцинируют на данных требующих повышенной точности