А чем этому неправильные подсказки помешают? Позиции сайта остались на месте?
Кому нужны мероприятия в ноябре, вряд ли будет тыкать на мероприятия в июле. Он ручками добьет ноябрь.
Задавался не так давно таким же вопросом.
Остановился на CollectionPage.
Сам пост isPartOf > CollectionPage.
А точно клауд блокирует?
У меня таких проблем с ним никогда не возникало. Может dns записи неправильно настроены?
Чего можно сделать?
Кстати, а у них еще остались ДЦ в России? Раньше вроде где-то в Домодедово был, если не ошибаюсь.
На официальном сайте числится Moscow, RU, но эта инфа может быть устаревшей.
Кто дорвеями занимается, у того всё уже автоматизировано давно и смысла в вашем инструменте точно нет.
Понимание своей ЦА - ключ к успеху. Дорвейщики точно не будут по 1-й страничке генерить.
Добавьте инструмент проверки мета тегов. Чтоб искал ошибки и предлагал добавить чего не хватает.
Прикрутите ИИ и парсер, чтобы генерил рекомендации просто по адресу страницы.
На будущее - для сайтов, находящихся в процессе разработки, никогда нелзя вешать никакие ноуиндексы или запрещающие индексацию правила в роботсах и других местах.
Вешайте заглушку, можно домен перенаправить на другую папку, из которой будет отдаваться заглушка.
В сайтах проблема номер один - изначально добиться индексации.
Проблема номер два, о которой многие забывают - это повторная индексация изменений, если что-то пошло не так. Цена ошибки и повторной переиндексации очень высока.
В зависимости от ситуации могут потребоваться МЕСЯЦЫ на переиндексацию, особенно при отсутствии внешних сигналов для поисковиков.
Так что в Вашем случае:
Пока технология не в массах - можно на ней выгодно паразитировать.
В странах третьего мира и там, где они официально не работают - можно выжимать все соки и трафик на генеренке.
Сам поиск, на удивление, может генерить неплохие и уникальные ответы, которые можно использовать для разбавления или как самостоятельные материалы на сайтах.
Гугл изначально был заточен под массовость. У гугла ~85 млрд просмотров, у чатгпт еще ~3.5 млрд. Разница очень грубо говоря в 25 раз. На каждый запрос гпт тратит гораздо больше ресурсов, отсюда лимиты и прочие ограничения. Поэтому им пока самим не очень выгодно очень сильно расти. Сам Альтман говорил, что сейчас проблема номер один не в технологиях, а в IT инфраструктуре, которая эти технологии могла бы поддерживать на достаточно комфортном для всех уровне. Если кратко - не хватает датацентров и мощностей для обслуживания ИИ.
Обычный поиск никогда не будет убит никаким ИИ. Потому что есть вещи, которые ИИ не сможет дать, как например личный опыт.
Чего гадать, если можно взять и попробовать?
Тайп-ин трафик - речь идёт о брендовом трафе из поисковиков или закладочный траф?
Главное, чтобы у оригинального сайта не было каких-то тороговых марок, исключительных прав или еще чего-то, что могло бы поспособствовать отжиму Вашего домена.
Всё завинчивается и закручивается по спирали. По немогу. Не сразу. По чуть-чуть, чтобы хавали, плакали, но хавали. Ощущение тотальной технологической регрессии. Противно это всё очень и печально.