- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемое сообщество,
Хочу реализовать удобную программу для проверки битых ссылок на сайтах. Цель реализации -- сделать удобный продукт, которым будет удобно пользоваться и, если получится, заработать денег.
Я обычный разработчик и не очень понимаю рынка программ для SEO оптимизации. Идея возникла, когда я захотел на своем блоге выявить битые ссылки. Я нашел много программных решений, как desktop так и SaaS, но не нашел удобного решения заточенного только под сканирование битых ссылок.
Вот список:
Desktop
Freeware
http://home.snafu.de/tilman/xenulink.html
Shareware
https://www.page-weight.ru/
SaaS
Freeware
https://validator.w3.org/checklink
http://old.graffity.biz/products/link_checker
http://anybrowser.com/linkchecker.html
http://netpeak.us/software/netpeak-spider/
Shareware
https://linktiger.com/
http://badlinks.ru/
http://www.internetmarketingninjas.com/seo-tools/google-sitemap-generator/
https://www.screamingfrog.co.uk/seo-spider/
Я поискал в Интернете обзоры и отзывы о этих программах:
https://devaka.ru/articles/xenu-link-sleuth
http://politicon1.at.ua/forum/41-451-2#49559
http://blog.aweb.ua/besplatnyj-instrument-dlya-proverki-bityx-ssylok-i-fajlov-ot-ninjas-marketing/
http://www.cryer.co.uk/resources/link_checkers.htm
Сформировал список требований:
Пишу на этот форум, так как данное сообщество является целевой аудиторией подобных продуктов. Если не затруднит, помогите дополнить список требований и выскажите свое мнение по поводу целесообразности данной затеи.
Спасибо.
Есть Screaming Frog SEO Spider, для 95% задач его за глаза.
Еще как вариант Netpeak Spider
Еще есть http://icelab.ru бесплатный
Да бросьте. Полно уже и так решений, прохода нет. Лучше в соседний топик загляните на счет сео-планировщика..
Продукт будет потом платный?
внутренние ссылки есть чем проверять, нужен софт/скрипт именно для проверки внешних ссылок, именно это я сейчас и ищу /ru/forum/932139
Принцип у софта простой - паук гуляет по сайту, просматривает все страницы, причем чтобы не гулять бесконечно, ведет внутренний лог и если на данной странице программа уже была, то повторно из внутренних перелинковок она уже на неё не заходит. Во время сканирования ищет в коде внешние ссылки, не принадлежащие данному сайту и проверяет их на доступность, переходя по ним. Если код ответа 200, пропускаем, если другой, формируем отчет по кодам ответа и ссылкам с этими кодами.
Такое можете реализовать?
внутренние ссылки есть чем проверять, нужен софт/скрипт именно для проверки внешних ссылок, именно это я сейчас и ищу /ru/forum/932139
Принцип у софта простой - паук гуляет по сайту, просматривает все страницы, причем чтобы не гулять бесконечно, ведет внутренний лог и если на данной странице программа уже была, то повторно из внутренних перелинковок она уже на неё не заходит. Во время сканирования ищет в коде внешние ссылки, не принадлежащие данному сайту и проверяет их на доступность, переходя по ним. Если код ответа 200, пропускаем, если другой, формируем отчет по кодам ответа и ссылкам с этими кодами.
Такое можете реализовать?
И такое тоже хочу реализовать. У меня уже есть первая, на коленке сделанная, версия http://contentmonitor-maximpedich.rhcloud.com/
---------- Добавлено 25.04.2016 в 13:13 ----------
Продукт будет потом платный?
Ну, вообще хотелось бы. Но изначально хочется сделать хороший продукт, что бы у людей была мотивация платить за него. О модели монетизации еще не думал.
Я обычный разработчик и не очень понимаю рынка программ для SEO оптимизации.
Те кто давно занимаются SEO отлично знают весь софт, позволяющий отследить все 404 ошибки... это и SeoScreaminFrog и всякие netpeak spider, comparser, xenu, да мало ли. Saas решения не отстают - seoto.me и куча других.
В каждом из этих решений как правило есть отдельный отчет - источники 404 ошибок.
А вообще 404 ошибка никак не влияет на ранжирование, если мы за SEO
https://support.google.com/webmasters/answer/2409439?hl=ru&ref_topic=2446029