Если ссылка реальна закрыта (то есть это не случай "кривые руки"), Google никогда ее не увидит. Проблема в том, что многие не разделяют процессы индексации и краулинга (сканирования).
Robots.txt просто дает доступ или запрещает (процесс сканирования). Что будет, если закрыть ссылку? Если ссылки не было в индексе, робот не придёт, ссылка так и не появится в индексе. Если ссылка уже была в индексе, то робот не придёт, ссылка останется в индексе в прежнем состоянии, без обновления.
Чтобы ссылки не было в индексе, нужно открыть доступ к ней в robots.txt (иначе робот не придёт) и поставить метатег (сами знаете какой), который даст команду гуглу избавиться от ссылки.
Сидишь такой, оптимизируешь, все картинки на webp меняешь. Пережал всё что можно. А потом бах! Потому что Гугл - это своего рода Алиэкспресс. Куча не связанных между собой продуктов и стартапов с разным руководством, бюджетами и центрами управления. Просто шильдик общий.
RSS добавляется в СК и опрашивается гуглом довольно часто.
Я тебя умоляю... спецы по гс, коих вообще большинство, не влезут все в один топ. Вот и воют, что Гугл не такой. Так всегда было и будет.
Я вообще удивляюсь, как гугл что-то в этой куче говна ранжирует...
https://policies.google.com/terms/changes
Там такая котовасия. Пока кеш не сформируется, то есть из 404 перейдет в визуальные 200, страницы не будет в поиске, но серч консоль будет писать, что страница в индексе.
Почему такое - хз. У сайтов, которых сканит моб бот такое часто встречается.
Дату хоть смотрел? 10 апреля 2014 года цитируешь.
У кого толще и длиннее траст, того и тапки. Если у вора сайт выше, значит ваш соответсвующего кач-ва.