Техник ножками пусть сходит и посмотрит. Может там вообще питание сдохло.
Не первый раз наблюдаю глюк гугла, если в title страницы имеется слово Error, то он выкидывает страницу с формулировкой "Отправленный URL возвращает ложную ошибку 404".
Глюкодром. Третьи сутки висит надпись "Заявка от 20.12.2021 на переезд сайта ... обрабатывается (это может занять некоторое время)." И никакой возможности перезапустить процесс нет.
Лет 5 держу часть доменов в namesilo. Паспорт ещё ни разу не спрашивали.
Если это то, о чём я подумал, то доступ к подобному должен быть запрещён для всех.
Раньше гугл мне ошибками "Проиндесировано несмотря на запрет в robots.txt" не сыпал. Это вот в новой консоли началось.
Ничего умнее как открыть доступ боту в robots.txt для устранения этих ошибок я не придумал. Думаю гугл не настолько туп чтобы постоянно долбиться в запрещённые к индексации метатегом страницы. Тем более что если таких страниц много, то со структурой сайта что то не то.
Это почему это? Ничего глобально не поменялось лет за 5. А не ограничивать ботов - это получить траблы со сканированием - как пить дать.
Потому что Гугл стал считать что имеет право разрешать своему боту индексировать страницу несмотря на запрет в robots.txt. А когда запрещаешь ему включать страницу в индекс метатегом, то он включает дурака и заявлят что его бот не видит страницу с этим метатегом из за запрета в robots.txt.
При таком раскладе проще полностью открыть доступ боту и рулить индексацией метатегами.
Потому что когда делались эти крупные сайты robots.txt ещё работал. Сейчас же нужных ботов лучше никак не ограничивать.
Нормальные регистраторы обычно предоставляют Mail Forwarding. Юзайте его.