$ man man
$ man wget
$ man grep
$ man sh
Вы бы так и сказали:
Что надо:
wget -o log --spider -i links.txt
-i чтобы из файла ссылки взять, но они должны быть списком с каждой новой строки.
--spider чтобы он файлы не скачивал и не сохранял их в виде html страниц.
-o чтобы в файл все сообщения по обойденным ссылкам сохранил в виде лога.
Потом можно посмотреть сколько 404 или 200:
grep 404 log | wc –l
Потом можно посмотреть какие конкретно ссылки с 404:
grep -B 2 404 log
-B чтобы две строки до строки со статусом 404 показались в которой ссылка.
А linkchecker прикольная утилита, но что-то у меня не получилось ей скормить список ссылок из файла.
Наверное, для этих целей лучше curl использовать.
Этот парень был в теме крипты еще в 2010.
Потратил 10000 BTC (41$) на пиццу.
И что, у него не было еще 41$, чтобы откупить(или намайнить) и холдить? Я думаю у него было даже 50$ или 60$ !!!
Цена подскочила не на следующий день, вообще-то.
Больше жаль челиков, которые реально холдили на жестком диске, флешке. А потом их женам захотелось убраться на столе...
Тоже мне ошибки))) Ошибки это вот:
Ровно 15 лет назад, 22 мая 2010 года, айтишник из Флориды Ласло Хейниц первым в мире расплатился цифровыми деньгами за реальный товар – он купил две пиццы за 10 тысяч биткойнов. Общая сумма покупки тогда равнялась 41 доллару. Сейчас 10 тысяч битков стоят 1 миллиард и 100 миллионов долларов.
сами могут не уйти никогда, надо решать 301 и 410 кодами ответов
А что за ошибки? Интересно.
А это очень хороший вопрос, вот вы бы помогли бы мне тоже понять из-за чего это произошло:
может конечно)при определенных обстоятельствах, сайт может оффлайн и без интернета работать, с нулевыми пингами)копать можно вечно, было бы желание и время)
С таким подходом вам дорога в JAMstack, там сайт вообще можно размазать по CDN по сути и ограничений никаких не будет по нагрузке и платить можно сущие копейки.