На будущее - для сайтов, находящихся в процессе разработки, никогда нелзя вешать никакие ноуиндексы или запрещающие индексацию правила в роботсах и других местах.
Вешайте заглушку, можно домен перенаправить на другую папку, из которой будет отдаваться заглушка.
В сайтах проблема номер один - изначально добиться индексации.
Проблема номер два, о которой многие забывают - это повторная индексация изменений, если что-то пошло не так. Цена ошибки и повторной переиндексации очень высока.
В зависимости от ситуации могут потребоваться МЕСЯЦЫ на переиндексацию, особенно при отсутствии внешних сигналов для поисковиков.
Так что в Вашем случае:
Пока технология не в массах - можно на ней выгодно паразитировать.
В странах третьего мира и там, где они официально не работают - можно выжимать все соки и трафик на генеренке.
Сам поиск, на удивление, может генерить неплохие и уникальные ответы, которые можно использовать для разбавления или как самостоятельные материалы на сайтах.
Гугл изначально был заточен под массовость. У гугла ~85 млрд просмотров, у чатгпт еще ~3.5 млрд. Разница очень грубо говоря в 25 раз. На каждый запрос гпт тратит гораздо больше ресурсов, отсюда лимиты и прочие ограничения. Поэтому им пока самим не очень выгодно очень сильно расти. Сам Альтман говорил, что сейчас проблема номер один не в технологиях, а в IT инфраструктуре, которая эти технологии могла бы поддерживать на достаточно комфортном для всех уровне. Если кратко - не хватает датацентров и мощностей для обслуживания ИИ.
Обычный поиск никогда не будет убит никаким ИИ. Потому что есть вещи, которые ИИ не сможет дать, как например личный опыт.
Чего гадать, если можно взять и попробовать?
Тайп-ин трафик - речь идёт о брендовом трафе из поисковиков или закладочный траф?
Главное, чтобы у оригинального сайта не было каких-то тороговых марок, исключительных прав или еще чего-то, что могло бы поспособствовать отжиму Вашего домена.
Всё завинчивается и закручивается по спирали. По немогу. Не сразу. По чуть-чуть, чтобы хавали, плакали, но хавали. Ощущение тотальной технологической регрессии. Противно это всё очень и печально.
Зачем снимать? Поставьте порог CPMV на среднее значение которое вас устроит. Если не добавите код загрузки другой рекламы, в доходе конечно потеряете, но не будете крутить рекламу за копейки.
Пробовал разные варианты. В итоге экспериментов такой подход снижал доход еще сильней. На объемах дешевая реклама даёт тоже неплохой выхлоп. Лучше 1000 раз копеечную показать, чем 10 раз дорогую.
Но, опять же, многое от тематики зависит, у меня не самая дорогая.
Пора тему переименовывать в "Похороны РСЯ".
Трафик не падает, доход падает. По сравнению с прошлым годом снижение в 10 раз минимум, уже даже хостинг РСЯ не окупает.
Снимаю нахрен эту помойку, чего и всем советую.
В прошлом году у них как-то случайно, видимо, выключилось угнетение и начали отсыпать по нескольку тысяч рублей в сутки.
Потом откатилось, но было приемлемо... А что сейчас - это вообще смешно. Там где только яша - даже хостинг не окупает.
Я не в курсе, ФАС еще не возбудился?
Зачем тут спрашивать то, что можно самому проверить?
Вбейте в вордстат название города.
Полученную общую частотность за месяц разделите на 30, чтобы получить примерное количество запросов в день.
Из полученной цифры ежедневно на ваш сайт будет заходить максимум 10-30%.
И дальше просто экономика - будет выгодно такой сайт содержать, обновлять, наполнять материалами или нет?
Но даже если маленький город и привлекает чем-то людей извне и запросов много, то скорее всего это какие-то базы отдыха, узконаправленные организации, санатории... и у все есть свои сайты.
Сделайте лучше сетку региональных сайтов ))) Нам как раз еще одной не хватает )))
И так и так пробовал. По моему опыту любые ограничения доход снижали.