90 посетителей в сутки и уже рекламу надо срочно вешать? Чтобы зарабатывать 0.000000000001 рублей в день? Для чего? Зачем Вы это делаете, мистер Андерсон?
Добейте хотя бы до 1000 посетителей в сутки и только потом думайте о рекламе. Не бегите вперёд паровоза.
Арендные ссылки придумали сеошники, чтобы доить клиентов на постоянке. Клиент ушёл - сеошник ссылки снял, позиции сайта полетели вниз, клиент вернулся к магу сеошнику, с которым всё работало.
Если собираетесь покупать их, просчитайте бюджет, чтобы не было морганий. В краткосрочной перспективе арендные будут дешевле, но в долгосрочной, конечно же, дороже.
Это не ИИ. Условно и с натяжкой NPC в той же ГТА и 20 лет назад называли ИИ, но это не ИИ )) У ИИ не может быть заскриптованных правил поведения. Я имел ввиду то, что если разрабатывать своего NPC с нуля, то это точно не будет ИИ.
Это уже два ответа )))
Про жесткие параметры, я имел в виду формат ответа бота. Например {throw: true} / {throw: false} и ограничить его только этими двумя вариантами, чтобы Ваше приложение могло их понять, чтобы бот не стал размусоливать эту тему в эссейной форме, а просто выдал своё решение.
Попробовать вернуть не вариант старые товары?
В таких случаях можно практиковать soft удаление - это когда страница доступна по прямому урлу, но ссылок из списков на неё больше нет. Либо где-то есть, чтобы они не повылетали из индекса, но из основных фильтров пользователям не показывать.
Как Владимир выше уже правильно подметил, больше страниц - шире покрытие семантики, больше страниц в выдаче, больше кликов. Количество товаров - тоже важный фактор.
Кто рыбы больше поймает? У кого маленькая или большая сеть?
Да чего вы на человека накинулись? Пост в курилке.
По сабжу, в такой вариант костей никогда не играл. Но причем тут ИИ?
Вы либо пишите алгоритм, который будет туповат и в зависимости от ситуации следовать фиксированным действиям.
Либо через API можно прикрутить реальный ИИ, научив его правилам и попросив отвечать, например в json формате со строго заданными параметрами.
Идея древнейшая. Еще лет 10 назад или более баловался со скриптом перелинковки HTracer.
Скрипт подключался к любому сайту, на любой CMS и перед рендерингом страницы заменял вхождения текста на ссылки из списка. А сам список формировался отдельно из поисковых запросов по которым были переходы (когда ПС их еще не прятали), но была возможность и свои списки создавать. Можно было создавать отдельные блоки со ссылками.
Там оно еще как-то анализировало текущую страницу и поисковые запросы и выдавало релевантные ссылки. Можно было делать в динамике или статично фиксировать ссылки на странице и тд и тп.
По эффекту точно глубина просмотра улучшилась, по позициям врать не буду, но вроде бы без изменений. Хотя было это очень давно и могу ошибаться.
От ситуации зависит. Куки для чего-то маленького, а локал - для более объемных данных.
Но в целом да, я Вас понял. Код пробовал в ChatGPT, Qwen и DeepSeek. Claude на бесплатных лимитах неюзабельный, но в целом качество на уровне ChatGPT.
Китайцы генерят быстро, больше всех нравится Qwen + у него есть фича Artifact, которая рендерит простой код прямо в окне браузера, что-то простенькое на html + css + js можно не отходя от кассы посмотреть.
Но ChatGPT как-то более вдумчиво решает задачи, хоть и медленней остальных.