- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И curl как я понял просто так из файла список URL не возьмет сама по себе.
Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.
Dmitriy_2014 #:Вообще странно, что вы про wget сразу не вспомнили. Это основная "рабочая лошадка" при выкачивании сайтов и т.п.
Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.
Да через wget нормально, мне просто посмотреть ответы кодов состояния HTTP по списку URL.
Да я думал что-то простое есть типа как вот на этом сайте - https://coolakov.ru/tools/ping/, скопировал пачку и посмотрел, но там ограничение до 500 URL.Напряги chatgpt, он тебе напишет любой скрипт, в том числе и для linux для любой оболочки.
При тотальном блэкауэте ты будешь напрягать смотря на прибытый старый журнал плейбоя ржавым гвоздём, в своем деревянном туалете в котором живет паук.
Всем привет!
Есть ли в Linux утилита чтобы проверить список из тысяч URL на ответ 200, 404 и т.д. Чтобы можно было из файла со списком большого количества ссылок проверить их какой код ответа у них?
Заранее всем спасибо за ответы!Можно написать самому
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
Так просто ты не проверишь, чтобы всё чётко было : ) так как есть редиректы и так далее.
В linux полно утилит по умолчанию, их просто комбнировать надо)
Вывести в консоль
или в файл
Можно написать самому
Это я уже понял, я думал есть отдельная утилита для этого.
Установи винду, как вариант.
Дело в том что если ты хочешь проверить хорошо на 200 OK, то там не всё так просто, там нужно будет проверять и после редиректа.