попробуй понять разницу между движком сайта и его конфигами и контентом сайта. Ты можешь не знать не то что про движок - даже на каком языке написан сайт. Роботс и тэги отвечают не за ВИДИМОСТЬ а за ИНДЕКСАЦИЮ в поисковых системах.
Я тебе такой алгоритм и описывал. Максимум 2 недели займет написать такое, ну и естественно, оплатить АПИшку. Но я не уверен что это будет сильно лучше чем сделать плагин на основе тэгов. Просто нужно будет тратить время каждый раз на их грамонтное прописание, ИИ это сделает за тебя.
Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".
Ну попробуй )))
недорого, 97 баксов на год. Если самому делать апишку, мне кажется дороже выйдет
я юзаю его на nodejs. очень часто выручал меня
Ну значит вопрос ТСа тебя должен был удивить, ведь это первая задача, которая решается с помощью селениума.
Даже интересно - как ты это предлагаешь сделать?
можно и так. ето не сложно
Естественно - это удобный и понятный инструмент для тестирования и скрапинга. Ты работал с ним? Тогда должен понимать что такое webdriver и что он делает.
Я даже не могу представить, как это надо извратиться... У вордпресса доступы к базе тоже прописываются в файле( если не ошибаюсь) но они не пробрасывются наружу.
за это отвечает вебсервер а не роботс. У меня это uvicorn-gunicorn-nginx, что там у вас в пхп - не помню, но думаю аналогичный механизм. Никто в здравом уме не откроет код сайта наружу
Давно я не видел такого бреда))) А еще большего - в комментах, когда пишут, что может. Ни один движок никогда наружу не пробросит файлы настроек, только если ты не сделаешь это специально. И роботс вообще никак на это не влияет. А ведь нужно всего лишь минут 15-20 чтобы почитать, как работают работают "движки" 😂
Yarpp использует довольно простой алгоритм, который подбирает похожие статьи по категориям и тегам. Прежде чем задать вопрос, не пробовал ли ты сначала самому проанализировать свой запрос? Как ИИ будет выполнять твои требования?
Допустим у тебя 100 статей на сайте. Тебе нужно скормить их ИИ и создать правильный промпт, который проанализирует их и вывит совпадения. Как ты думаешь, сколько это будет занимать времени? А для 1000? Ну допустим ты будешь кэшировать результат в базе. Значит этот плагин нужно запускть при добавлении статьи каждый раз для обновления информации. Это оправданная трата ресурсов? будет ли выхлоп соответствовать потраченным усилиям?