Да, и в целом это логично.
Извиняюсь что я ничего не читаю никогда, но цитирую из Вебмастера:
Вы можете убрать из поиска отдельные страницы: удаленные с сайта или закрытые от индексирования.
Но есть некоторые нюансы, например, что даже на запрещенных в robots.txt и удаленные страницы могут:
При этом страница может иногда появляться в результатах поиска, например, если на нее ведут ссылки с других ресурсов.
И даже если страница удалится, то её типа можно вернуть в поиск:
Уберите запрет на индексирование: директиву Disallow в файле robots.txt или метатег noindex. Страницы вернутся в результаты поиска, когда робот обойдет сайт и узнает об изменениях. Это может занять до трех недель.
Формально, если ваша страница не запрещена к индексации, то заявка на удаление и не будет удовлетворена.
Понятно, но проверять я это не буду.
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
cat urls.txt | xargs -I {} -P 10 sh -c 'echo "{}: $(curl -s -o /dev/null -w "%{http_code}" "{}")"'
А также для удаления из индекса тех страниц, что были проиндексированы, но потом ты их закрыл от индексации и хочешь чтобы яндекс выкинул из индекса побыстрее. Ну а если отправить нормальную страницу, то яндекс отклонит такую заявку.
Невозможно через этот инструмент случайно удалить нормальную страницу.
Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.
Да через wget нормально, мне просто посмотреть ответы кодов состояния HTTP по списку URL.