- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Есть ли в Linux утилита чтобы проверить список из тысяч URL на ответ 200, 404 и т.д. Чтобы можно было из файла со списком большого количества ссылок проверить их какой код ответа у них?
Заранее всем спасибо за ответы!Есть ли в Linux утилита чтобы проверить список из тысяч URL на ответ 200, 404 и т.д. Чтобы можно было из файла со списком большого количества ссылок проверить их какой код ответа у них?
$ man man
$ man wget
$ man grep
$ man sh
Вы же вроде бы пробовали программировать. Можно самому написать, т.к. все просто.
...для PHP CLI.
Что касается утилит, выше упоминали "обычный" wget, который умеет читать список адресов из файла.
$ man man
$ man wget
$ man grep
$ man sh
Вы бы так и сказали:
Что надо:
wget -o log --spider -i links.txt
-i чтобы из файла ссылки взять, но они должны быть списком с каждой новой строки.
--spider чтобы он файлы не скачивал и не сохранял их в виде html страниц.
-o чтобы в файл все сообщения по обойденным ссылкам сохранил в виде лога.
Потом можно посмотреть сколько 404 или 200:
grep 404 log | wc –l
Потом можно посмотреть какие конкретно ссылки с 404:
grep -B 2 404 log
-B чтобы две строки до строки со статусом 404 показались в которой ссылка.
А linkchecker прикольная утилита, но что-то у меня не получилось ей скормить список ссылок из файла.
Наверное, для этих целей лучше curl использовать.
Но, я думал, что есть что-то простое типа: проверьссылки имяфайлапроверьссылки имяфайла
Что значит "проверь ссылки"? Этой неопределенностью сквозило еще из первого сообщения 😊
Да, какая уже разница, от этой неопределенности сквозит еще из первого сообщения!
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл