- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Эти данные вытаскиваются Ai, как вариант, по URL.
О чем ты вообще говоришь? при чем тут УРЛы? Я тебе про то, что под капотом у ЛЛМ - ты мне приводишь результат работы бота какого-то...
Раз уж ты решил, что ты программист - возьми и посмотри какие ответы отдает голая ЛЛМ.
Какая в данном случае разница с LLM?
Есть ошибки с логикой LLM и с тем, что она де факто необучаема. )
Да? Спасибо, что просвятил. Непонятно тогда чем я занимаюсь на работе)))
Почитай про Supervised Fine-Tuning (SFT), Parameter-Efficient Fine-Tuning (PEFT), Prompt-tuning и многие другие интересные штуки.
Огромная.
Да? Спасибо, что просвятил. Непонятно тогда чем я занимаюсь на работе)))
Но сервиса по SEO мы до сих пор не видим
Потому что слишком много неизвестных и данных. А это - краеугольный камень SEO. Ты, кстати, если идею не забросил, изучи тему hard и soft кластеризации, сними выдачу, погоняй. Это - автоматика по СЕРПу, не по интенту. Так вот, у тебя не будет прогнозируемых результатов. Они всегда будут разные. Это - печально. Т.е. ты можешь обучить на конкретную нишу (например, та самая доставка грузов), но для каждой новой ниши тебе надо будет обучать отдельно. А это дольше, чем руками сделать.
Забавно, ты описал в целом правильный алгоритм, но пришел к неправильному выводу о невозможности. В том и плюс таких систем, что они будут гораздо быстрее и точнее работать, чем собирать все это руками. Датасеты под каждую тематику достаточно создать один раз и они будут храниться, при необходимости вытягиваться. Дообучение, как ты это назвал(на самом деле это называется обогащение дополнительными знаниями - RAG)
За подсказки спасибо, попробую, учту.
К сожалению, должен признаться, появилась в голове более интересная идея сервиса. Все свободное время уходит на него. По сео-агенту пока статия накопления знаний. Так что будут еще идеи - пиши, с удовольствием подумаю над ними. Пока достаточно области семантики
Кстати, любителям использовать всякие сомнительные сервисы а потом ругать клауд/гпт стоит задуматься -
Исследователи провели аудит 17 сторонних API для LLM-агентов и выяснили:
• почти 46% endpoint'ов не проходят fingerprint-тесты
• API заявляет, что это GPT-5 или Gemini-2.5, а на бэкенде тихо подставлен GLM-4
• точность на медицинском бенчмарке падает с 83% до 37%
Эти фейковые API уже процитированы в 187 научных статьях, а некоторые связанные с ними проекты набрали почти 60 тысяч звёзд на GitHub.И главная проблема тут в том, что научные выводы строятся на поддельных моделях.
https://arxiv.org/abs/2603.01919