Пожалуйста. Думаю, это знание охладит твой пыл в прикладном применение. А то ведь SEO-сервис может предложить сделать каноникал на главную, с редиректом.
Если говорить про знания, шанс ошибки человека в разы меньше. Т.е. если человек знает как делать, он так и будет делать. А не придумывать оптимальную последовательность по его мнению каждую итерацию.
И, кстати, даже здесь есть ошибки.
Очевидная: почта вместо URL, Clinar подтянутая из Title. Это в процессе будет правиться через работу с рупрофайлс, ну и сейчас в ручном формате. Скачал - поправил, перезалил. Ну или
Вопрос не в формате ответа. Вопрос в формате получения данных, их сохранения и дальнейшей работе. Например, ну очень простой пример:
Эти данные вытаскиваются Ai, как вариант, по URL. Ответ может быть любой, почти наверняка сверху и снизу ответа будет тьма тьмущая ненужного текста. Но в работу идёт только то, что мне необходимо. Остальное удаляется. Аналогично с товаром.
Выгрузка брифа также осуществляется по заданным полям. JSON строго парсится, в него не попадает шума. И, да, JSON здесь предполагается, как и писал выше, в БД.
Джемини 3.1 про кодит на уровне Опус 4.6
Даже банальный рефакторинг кода у обоих систем работает примерно одинаково. Джипити уже почти никто не пользуется для кодинга.
Профит улучшать можно на ентерпрайс, а для этого нужна уже производительность и безопасность, а не много данных. Для обычных смертных 20 и 200$ - это уже много. А так - уход в решения, типа тех, что на Google Lab и нишевые сервисы (Перплексити подобные). Но для всего этого нужны уже не новые данные.
Он не обладает знаниями, потому что он не интеллект. Он обладает данными. Поэтому и ошибся. И ошибок у AI море, от смешных до катастрофических. Вон, на бесплатном рисунке вполне может вписать предмет, который по своим физическим свойстам не может быть там и так, где нарисован. А казалось бы, куда проще. Но не Да Винчи, вместо того, чтобы отсечь всё лишнее, делает массу ненужных элементов и провоцирует ошибки. На данный момент это аксиома. ИИ не то, что может ошибаться. ИИ - ошибается.
Зачем ты это пишешь?
По сути: в ботах и сервисах делаются костыли, чтобы выдавать нужный результат, обрезать размышления и так далее. Промпты не всегда проблему решают. Вещь, возможно, полезная. Но структуру данных можно и так получать, например, формируя JSON и выдавая только его параметры.
Ну бытует мнению, что в инвесторах у Ai государства (уж точно в Китае). А также, что себестоимость постоянно падает. Вряд ли в данном контексте у Антропика и Гугла есть реальная возможность сильно улучшить качество, значит, будут улучшать производительность.
В общем, это новая технологическая война. Мы её, конечно, как обычно проиграли. Но соперники рубятся и рубиться будут до последней реки.
Не работает такое. ) Единственный реальный способ - собирать конкретные запросы конкретных полностью релевантных страниц.
Удалитесь вместе со своей дешёвой моделью.