А информацию ИИ откуда черпать/обновлять будут?
Склепайте как-нибудь на досуге, посмотрим, оценим.
Но так точно не надо делать,
Вот на английском,
Периодическое обновление информации + xml карта сайта + корректный <lastmod> + (по необходимости) отправка на переобход + доп. трафик (и отдельно на внутренние страницы) + внешние ссылки.
На будущее - для тестового домена делать доступ только по IP для рабочего команды, все остальным - запрет доступа.
Т.е. вы добавили новый контент на страницу, отправили на переобход, но переобхода нет и данные в кэше не обновляются? (выполняли эти действия?)
p.s. Когда на сайте с открытой индексацией долгое время стоят заглушки - в ряде случае робот может долго не обновлять информацию.
Была похожая ситуация -> я сбросил индексацию, потом открыл (в тому времени всё было корректно настроено, включая XML карту с датой <lastmod>), дал дополнительно внешнего трафика, сайт начал индексировать и корректно ранжироваться.
Поведенческие внутри сайта оцениваются через непосредственное взаимодействие. Если есть вовлечённость пользователя в этом взаимодействие (т.е. пользователь фактически выполняет действия) - отлично, если просто смотрит и не реагирует на виджет - плохо.
Нет.
Нет тут никаких транзисторов и паяльников. Есть развитие ПО для работы с текстом.
Кому категорически неприемлемо - ручка, бумага, папка с завязками.
Он изначально предполагался.
Можете ещё Screaming Frog Log File Analyser посмотреть. На торрентах есть крякнутая версия.
Кроме того, есть смысл доработать счётчик Метрики для отображения IP, видеть IP-шники, анализировать их частоту, выяснять их ASN-ы и дальше фильтровать (если вы их фильтруете).