Что может, что не может AI. Обсуждаем возможности, делимся опытом, спорим, но в рамках приличия.

S3
На сайте с 29.03.2012
Offline
371
#1081
Сергей про е-ком #:
Эти данные вытаскиваются Ai, как вариант, по URL.

О чем ты вообще говоришь? при чем тут УРЛы? Я тебе про то, что под капотом у ЛЛМ - ты мне приводишь результат работы  бота какого-то...

Раз уж ты решил, что ты программист - возьми и посмотри какие ответы отдает голая ЛЛМ. 

Сергей про е-ком
На сайте с 11.05.2008
Offline
350
#1082
Какая в данном случае разница с LLM? Я привёл конкретный пример первого экрана. С LLM работаю точно также в контексте семантики. Отрезая всё лишнее. И, да, в формате ответа ошибок нет. Есть ошибки с логикой LLM и с тем, что она де факто необучаема. )
Крутейшая тема и конструктор на WP - https://shop.greenshiftwp.com/?from=3338
S3
На сайте с 29.03.2012
Offline
371
#1083
Сергей про е-ком #:
Какая в данном случае разница с LLM?
Огромная.
Сергей про е-ком #:
Есть ошибки с логикой LLM и с тем, что она де факто необучаема. )

Да? Спасибо, что просвятил. Непонятно тогда чем я занимаюсь на работе)))

Почитай про  Supervised Fine-Tuning (SFT),  Parameter-Efficient Fine-Tuning (PEFT),  Prompt-tuning и многие другие интересные штуки.

Сергей про е-ком
На сайте с 11.05.2008
Offline
350
#1084
Sly32 #:
Огромная.

Да? Спасибо, что просвятил. Непонятно тогда чем я занимаюсь на работе)))

Я тоже не понимаю. Но сервиса по SEO мы до сих пор не видим. Ну и, согласен, я неверно мысль сформулировал. Обучить LLM на работу с семантикой невозможно. Потому что слишком много неизвестных и данных. А это - краеугольный камень SEO. Ты, кстати, если идею не забросил, изучи тему hard и soft кластеризации, сними выдачу, погоняй. Это - автоматика по СЕРПу, не по интенту. Так вот, у тебя не будет прогнозируемых результатов. Они всегда будут разные. Это - печально. Т.е. ты можешь обучить на конкретную нишу (например, та самая доставка грузов), но для каждой новой ниши тебе надо будет обучать отдельно. А это дольше, чем руками сделать.
S3
На сайте с 29.03.2012
Offline
371
#1085
Сергей про е-ком #:
Но сервиса по SEO мы до сих пор не видим
Именно потому что у меня есть основная работа, за которую мне платят. А этот сервис - так, развлечение. 
Сергей про е-ком #:
Потому что слишком много неизвестных и данных. А это - краеугольный камень SEO. Ты, кстати, если идею не забросил, изучи тему hard и soft кластеризации, сними выдачу, погоняй. Это - автоматика по СЕРПу, не по интенту. Так вот, у тебя не будет прогнозируемых результатов. Они всегда будут разные. Это - печально. Т.е. ты можешь обучить на конкретную нишу (например, та самая доставка грузов), но для каждой новой ниши тебе надо будет обучать отдельно. А это дольше, чем руками сделать.

Забавно, ты описал в целом правильный алгоритм, но пришел к неправильному выводу о невозможности. В том и плюс таких систем, что они будут гораздо быстрее и точнее работать, чем собирать все это руками. Датасеты под каждую тематику достаточно создать один раз и они будут храниться, при необходимости вытягиваться. Дообучение, как ты это назвал(на самом деле это называется  обогащение дополнительными знаниями - RAG) 

За подсказки спасибо, попробую, учту. 
К сожалению, должен признаться, появилась в голове более интересная идея сервиса. Все свободное время уходит на него. По сео-агенту пока статия накопления знаний. Так что будут еще идеи - пиши, с удовольствием подумаю над ними. Пока достаточно области семантики

S3
На сайте с 29.03.2012
Offline
371
#1086

Кстати, любителям использовать всякие сомнительные сервисы а потом ругать клауд/гпт стоит задуматься - 

Исследователи провели аудит 17 сторонних API для LLM-агентов и выяснили:

• почти 46% endpoint'ов не проходят fingerprint-тесты

• API заявляет, что это GPT-5 или Gemini-2.5, а на бэкенде тихо подставлен GLM-4

• точность на медицинском бенчмарке падает с 83% до 37%

Эти фейковые API уже процитированы в 187 научных статьях, а некоторые связанные с ними проекты набрали почти 60 тысяч звёзд на GitHub.И главная проблема тут в том, что научные выводы строятся на поддельных моделях.

https://arxiv.org/abs/2603.01919

Real Money, Fake Models: Deceptive Model Claims in Shadow APIs
Real Money, Fake Models: Deceptive Model Claims in Shadow APIs
  • arxiv.org
View PDF HTML (experimental) Access to frontier large language models (LLMs), such as GPT-5 and Gemini-2.5, is often hindered by high pricing, payment barriers, and regional restrictions. These limitations drive the proliferation of $\textit{shadow APIs}$, third-party services that claim to provide access to official model services without...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий