Попробовать вернуть не вариант старые товары?
В таких случаях можно практиковать soft удаление - это когда страница доступна по прямому урлу, но ссылок из списков на неё больше нет. Либо где-то есть, чтобы они не повылетали из индекса, но из основных фильтров пользователям не показывать.
Как Владимир выше уже правильно подметил, больше страниц - шире покрытие семантики, больше страниц в выдаче, больше кликов. Количество товаров - тоже важный фактор.
Кто рыбы больше поймает? У кого маленькая или большая сеть?
Да чего вы на человека накинулись? Пост в курилке.
По сабжу, в такой вариант костей никогда не играл. Но причем тут ИИ?
Вы либо пишите алгоритм, который будет туповат и в зависимости от ситуации следовать фиксированным действиям.
Либо через API можно прикрутить реальный ИИ, научив его правилам и попросив отвечать, например в json формате со строго заданными параметрами.
Идея древнейшая. Еще лет 10 назад или более баловался со скриптом перелинковки HTracer.
Скрипт подключался к любому сайту, на любой CMS и перед рендерингом страницы заменял вхождения текста на ссылки из списка. А сам список формировался отдельно из поисковых запросов по которым были переходы (когда ПС их еще не прятали), но была возможность и свои списки создавать. Можно было создавать отдельные блоки со ссылками.
Там оно еще как-то анализировало текущую страницу и поисковые запросы и выдавало релевантные ссылки. Можно было делать в динамике или статично фиксировать ссылки на странице и тд и тп.
По эффекту точно глубина просмотра улучшилась, по позициям врать не буду, но вроде бы без изменений. Хотя было это очень давно и могу ошибаться.
От ситуации зависит. Куки для чего-то маленького, а локал - для более объемных данных.
Но в целом да, я Вас понял. Код пробовал в ChatGPT, Qwen и DeepSeek. Claude на бесплатных лимитах неюзабельный, но в целом качество на уровне ChatGPT.
Китайцы генерят быстро, больше всех нравится Qwen + у него есть фича Artifact, которая рендерит простой код прямо в окне браузера, что-то простенькое на html + css + js можно не отходя от кассы посмотреть.
Но ChatGPT как-то более вдумчиво решает задачи, хоть и медленней остальных.
От ниши многое зависит. Если они делали очередной сайт про крипту или обзорник товаров с Амазона без какой-либо добавочной ценности, то и с рукописным контентом была велика вероятность улететь (как это уже и бывало).
Вот мой подход в сайтах:
Ну вы попробуйте сгенерировать тонну контента и отпишитесь, как оно себя чувствовать будет.
Это пример ошибки выжившего. Я делал сайты на миллионы страниц и на генерёнке и на копипасте, мультиязычные. У всех исход один: первые несколько месяцев рост свечкой вверх, а потом забвение.
Этим надо заниматься на потоке. Но мне это не интересно. Хочу чего-то фундаментального, чтобы сайт нравился, чтобы польза была, сообщество было вокруг сайта и тд.