где в консоле найти список url которые закрыты по robots.txt

I0
На сайте с 22.02.2016
Offline
37
601

1. в файле robots.txt вписаны исключения Disallow для ряда разделов,

где у глугла найти список того, что _он_ _видит_ как исключенное?

интересные конечные url.

Понял, что он видит ссылки с Disallow так как они отдавали 500 код и

были занесены в список в Сканирование -> Ошибки сканирования -> Ошибка сервера

Это притом что они закрыты Disallow и в результатах поиска их нет.

Вообще, есть у них что-то вроде карты сайтов как у яднеска?

2. В старой консоле нашел интересную тему,

Сканирование -> Ошибки сканирования -> Не найдено

и там куча ссылок которые были удалены с сайта уже как год или два назад,

можно их отметить галкой и нажать "отметить как исправленное".

К чему это приведет?

Он что опять пойдет по этим ссылкам и опять добавит их как ненайденное?

Доколе?)

3. Также в логах вебсервера вижу, что глугл регулярно ходит по ссылкам которые не существуют несколько лет,

когда это закончится?

IT
На сайте с 11.09.2018
Offline
2
#1

1. в Google Search Console есть инструмент "Проверка URL"

Digital-агентство Internet-Team (http://internet-team.ru)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий