Я разве написал, что при 404 будет запрет на сканирование? Там чуть ниже в спецификации еще есть пункт "Неудачные запросы и неполные данные".
Ну почему тупость? Если отдает 4** ошибку то это одно, а если не доступен, то совершенно другое, спецификацию почитайте.
Вот это зря, про удаление robots.txt, когда он существовал до этого - это равнозначно запрету на сканирование, не удивляйтесь потом, что будут проблемы.---------- Добавлено 13.09.2018 в 10:59 ----------По данному инструменту могу сказать, что он просто ограничен в ресурсах, т.е. при таймауте сливается в ошибки, это проявляется в проверке Посмотреть как гуглбот- временно не доступно и в проверке мобильности - "другая ошибка". Он больше предназначен для первичной проверки мобильности, но если в консоли показывает ошибку проверки, то конечно не гуд, на справочном форуме вебмастеров гугл проблема эскалирована, но сроков решения никто не говорит.
Отключайте по очереди расширения и проверяйте, не забыв почистить куки, тоже самое было, поправил, уже норм работает.
Ну степлером может и не стоит. Я бы согласился полностью с вашими словами, если бы переезд был сделан без ошибок, но они были с самого начала переезда. И все в куче дало такой результат. Я долго ковырялся в проекте и участвовал с самой первой темы, и эскалации кидал, vvovvo не даст соврать, что теребим гуглера по вашему сайту, но у нас нет доступа в контору) чтобы нажать волшебную кнопку и все станет на свои места.
так проблема не только с аддурилкой уже =)
На форуме для вебмастеров сегодня как раз есть ответ по данному вопросу.
Простите, кем спланированная? :)
Доброй ночи! Кем не знаю, я только анализирую, Скооперируйтесь. если не хотите открывать свои сайты, и посмотрите по бекам по доменам когда они отпали, 2 варианта, если обычный сайт и большой:
1. Обычный сайт - отпали по доменам 10 сентября 2017 в количестве 17 шт.
2. Большой сайт - 3 волны: 11.09.17 - 571 ссылка, 12.09.17 - 364 ссылки, 13.09.17 - 598 ссылки
Приветствую всех вебмастеров! Кем спланирована данная акция я не знаю.