- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И curl как я понял просто так из файла список URL не возьмет сама по себе.
Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.
Dmitriy_2014 #:Вообще странно, что вы про wget сразу не вспомнили. Это основная "рабочая лошадка" при выкачивании сайтов и т.п.
Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.
Да через wget нормально, мне просто посмотреть ответы кодов состояния HTTP по списку URL.
Да я думал что-то простое есть типа как вот на этом сайте - https://coolakov.ru/tools/ping/, скопировал пачку и посмотрел, но там ограничение до 500 URL.Напряги chatgpt, он тебе напишет любой скрипт, в том числе и для linux для любой оболочки.
При тотальном блэкауэте ты будешь напрягать смотря на прибытый старый журнал плейбоя ржавым гвоздём, в своем деревянном туалете в котором живет паук.
Всем привет!
Есть ли в Linux утилита чтобы проверить список из тысяч URL на ответ 200, 404 и т.д. Чтобы можно было из файла со списком большого количества ссылок проверить их какой код ответа у них?
Заранее всем спасибо за ответы!Можно написать самому
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
Так просто ты не проверишь, чтобы всё чётко было : ) так как есть редиректы и так далее.
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
cat urls.txt | xargs -I {} -P 10 sh -c 'echo "{}: $(curl -s -o /dev/null -w "%{http_code}" "{}")"'Эта команда работает, но объяснить бы поподробней для новичков таких как я, примерно мы берем вывод из файла, передаем его xargs, xargs передает его sh, интерпретатору shell который выполняет curl для каждой ссылки отбрасывая все и оставляя только код ответа.Можно написать самому
Это я уже понял, я думал есть отдельная утилита для этого.
Установи винду, как вариант.
Дело в том что если ты хочешь проверить хорошо на 200 OK, то там не всё так просто, там нужно будет проверять и после редиректа.