Проверка доступности сайтов по списку

12
Brat_Sergij
На сайте с 26.11.2015
Offline
341
342
Всем привет! Может кто подскажет способ(ы) решения задачи. Есть список URL около 500 сайтов. Примерно раз в 3 месяца надо проверять их доступность (открывается/не открывается). Есть какие-то бесплатные сервисы или программы, которые позволяют это сделать? Типа скормил им список, и получил в ответ таблицу "Домен - Ответ сервера".
Антоний Казанский
На сайте с 12.04.2007
Offline
619
#1
Brat_Sergij :
Всем привет! Может кто подскажет способ(ы) решения задачи. Есть список URL около 500 сайтов. Примерно раз в 3 месяца надо проверять их доступность (открывается/не открывается). Есть какие-то бесплатные сервисы или программы, которые позволяют это сделать? Типа скормил им список, и получил в ответ таблицу "Домен - Ответ сервера".

Ищите сервисы с функцией проверки обратной ссылок (так можете и поискать).

Но на корректность бесплатных сервисов я бы не рассчитывал, как правило они полурабочие, а c таким кол-во URL-ов и ещё повторными проверками вообще вряд ли.

проверка обратных ссылок на сайт
проверка обратных ссылок на сайт
  • www.yandex.ru
Дает статистику по страницам-лидерам по количеству внешних ссылок . Проверка ссылок на сайт покажет, какие страницы генерируют больше всего линков. Дает информацию для формирования ссылочной стратегии. Дает статистику по страницам-лидерам по количеству внешних ссылок . Проверка ссылок на сайт покажет, какие страницы генерируют больше всего...
√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
M3
На сайте с 09.02.2022
Offline
24
#2

Brat_Sergij :
Всем привет! Может кто подскажет способ(ы) решения задачи. Есть список URL около 500 сайтов. Примерно раз в 3 месяца надо проверять их доступность (открывается/не открывается). Есть какие-то бесплатные сервисы или программы, которые позволяют это сделать? Типа скормил им список, и получил в ответ таблицу "Домен - Ответ сервера".

#!/bin/bash

# Файл со списком URL
URL_LIST="urls.txt"

# Файл для результатов
OUTPUT_FILE="results.txt"

# Очищаем файл результатов
> $OUTPUT_FILE

# Перебор каждого URL в списке
while IFS= read -r url
do
    echo "Проверка $url"
    # Отправляем запрос и получаем HTTP-статус
    status=$(wget --spider --server-response $url 2>&1 | awk '/HTTP\// {print $2}')
    
    # Проверяем, был ли получен статус
    if [ -z "$status" ]
    then
        echo "$url - Недоступен" >> $OUTPUT_FILE
    else
        echo "$url - $status" >> $OUTPUT_FILE
    fi
done < "$URL_LIST"

echo "Проверка завершена. Результаты в файле $OUTPUT_FILE"

проще скриптик написать под свои условия)

Brat_Sergij
На сайте с 26.11.2015
Offline
341
#3
master32 #:
проще скриптик написать под свои условия)

Если бы шарил - непременно написал ) Но я даже не понимаю куда "засунуть" то, что вы написали. Я совсем не программист. 

Brat_Sergij
На сайте с 26.11.2015
Offline
341
#4
Антоний Казанский #:
Ищите сервисы с функцией проверки обратной ссылок

Очень многие перепробовал, но большинство имеет ограничения на максимально число проверок, да и не всегда корректно выдают результат почему-то.

Devvver
На сайте с 02.07.2008
Offline
663
#5

С этой же проблемой сталкивался, запилил сервис https://checkurl.streamlit.app/
Правда сам больше 350-400 доменов не чекал.

В сервисе есть баг, для повторной проверки надо использовать F5. Короче не все идеально.

Мой блог. Все о создании сайтов,Seo и СДЛ ( https://devvver.ru/ ) Мой SEO телеграм канал https://t.me/seobloggers
Антоний Казанский
На сайте с 12.04.2007
Offline
619
#6
Brat_Sergij #:
Очень многие перепробовал, но большинство имеет ограничения на максимально число проверок, да и не всегда корректно выдают результат почему-то.

Именно поэтому я ими и перестал пользоваться (включая платные), перепрофилировав эту задачу Zennoposter-у, где можно не просто анализировать ответ севера по факту (что кстати не гарантирует сохранение ссылки), но также сверять корректность записи, в случае, где вебмастер захочет закрыть страницы от индексации (что нередко случается). При этом можно анализировать дату текущего кеша, контролировать кол-во внешних, определять дату поискового кеша, проверять индексированность донорской страницы и вообще любую информацию в пределах доступности.

В полном объёме бесплатные чекеры такую информацию не предоставляют, да и платные надо сказать, тоже могут порядком глючить и не исправлять свой инструмент в течении продолжительного времени.

Brat_Sergij
На сайте с 26.11.2015
Offline
341
#7
Devvver #:

С этой же проблемой сталкивался, запилил сервис https://checkurl.streamlit.app/
Правда сам больше 350-400 доменов не чекал.

В сервисе есть баг, для повторной проверки надо использовать F5. Короче не все идеально.

Опа... Отлично, проверю. Спасибо!

Brat_Sergij
На сайте с 26.11.2015
Offline
341
#8
Devvver #:

С этой же проблемой сталкивался, запилил сервис https://checkurl.streamlit.app/
Правда сам больше 350-400 доменов не чекал.

В сервисе есть баг, для повторной проверки надо использовать F5. Короче не все идеально.

Отправил на проверку 130 URL и после проверки почти 2/3 из них получил такое:

Никаких результатов проверки не получил - только это сообщение.

samimages
На сайте с 31.05.2009
Offline
427
#9
Скачайте сриминг фрог, ломаными весь рунет завален... чего вы создаете проблему там где ее нет?)))
Опыт как иммунитет — приобретается в муках! Хостинг: экономия до 1300 руб + домен в подарок ( https://clck.ru/XLscf ) / Аудит семантики от 15К [долго] - ЛС
Антоний Казанский
На сайте с 12.04.2007
Offline
619
#10
samimages #:
Скачайте сриминг фрог, ломаными весь рунет завален... чего вы создаете проблему там где ее нет?)))

Кстати, да.

Frog работает в режиме ручной проверки.

Всё довольно просто.

Переключаем режим работы,

Добавляем список URL-ов,

Выполняем проверку и по каждому URL-у получаем результат,


Далее сохраняем проект и перепроверяем по мере надобности.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий