- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемое сообщество,
Хочу реализовать удобную программу для проверки битых ссылок на сайтах. Цель реализации -- сделать удобный продукт, которым будет удобно пользоваться и, если получится, заработать денег.
Я обычный разработчик и не очень понимаю рынка программ для SEO оптимизации. Идея возникла, когда я захотел на своем блоге выявить битые ссылки. Я нашел много программных решений, как desktop так и SaaS, но не нашел удобного решения заточенного только под сканирование битых ссылок.
Вот список:
Desktop
Freeware
http://home.snafu.de/tilman/xenulink.html
Shareware
https://www.page-weight.ru/
SaaS
Freeware
https://validator.w3.org/checklink
http://old.graffity.biz/products/link_checker
http://anybrowser.com/linkchecker.html
http://netpeak.us/software/netpeak-spider/
Shareware
https://linktiger.com/
http://badlinks.ru/
http://www.internetmarketingninjas.com/seo-tools/google-sitemap-generator/
https://www.screamingfrog.co.uk/seo-spider/
Я поискал в Интернете обзоры и отзывы о этих программах:
https://devaka.ru/articles/xenu-link-sleuth
http://politicon1.at.ua/forum/41-451-2#49559
http://blog.aweb.ua/besplatnyj-instrument-dlya-proverki-bityx-ssylok-i-fajlov-ot-ninjas-marketing/
http://www.cryer.co.uk/resources/link_checkers.htm
Сформировал список требований:
Пишу на этот форум, так как данное сообщество является целевой аудиторией подобных продуктов. Если не затруднит, помогите дополнить список требований и выскажите свое мнение по поводу целесообразности данной затеи.
Спасибо.
Есть Screaming Frog SEO Spider, для 95% задач его за глаза.
Еще как вариант Netpeak Spider
Еще есть http://icelab.ru бесплатный
Да бросьте. Полно уже и так решений, прохода нет. Лучше в соседний топик загляните на счет сео-планировщика..
Продукт будет потом платный?
внутренние ссылки есть чем проверять, нужен софт/скрипт именно для проверки внешних ссылок, именно это я сейчас и ищу /ru/forum/932139
Принцип у софта простой - паук гуляет по сайту, просматривает все страницы, причем чтобы не гулять бесконечно, ведет внутренний лог и если на данной странице программа уже была, то повторно из внутренних перелинковок она уже на неё не заходит. Во время сканирования ищет в коде внешние ссылки, не принадлежащие данному сайту и проверяет их на доступность, переходя по ним. Если код ответа 200, пропускаем, если другой, формируем отчет по кодам ответа и ссылкам с этими кодами.
Такое можете реализовать?
внутренние ссылки есть чем проверять, нужен софт/скрипт именно для проверки внешних ссылок, именно это я сейчас и ищу /ru/forum/932139
Принцип у софта простой - паук гуляет по сайту, просматривает все страницы, причем чтобы не гулять бесконечно, ведет внутренний лог и если на данной странице программа уже была, то повторно из внутренних перелинковок она уже на неё не заходит. Во время сканирования ищет в коде внешние ссылки, не принадлежащие данному сайту и проверяет их на доступность, переходя по ним. Если код ответа 200, пропускаем, если другой, формируем отчет по кодам ответа и ссылкам с этими кодами.
Такое можете реализовать?
И такое тоже хочу реализовать. У меня уже есть первая, на коленке сделанная, версия http://contentmonitor-maximpedich.rhcloud.com/
---------- Добавлено 25.04.2016 в 13:13 ----------
Продукт будет потом платный?
Ну, вообще хотелось бы. Но изначально хочется сделать хороший продукт, что бы у людей была мотивация платить за него. О модели монетизации еще не думал.
Я обычный разработчик и не очень понимаю рынка программ для SEO оптимизации.
Те кто давно занимаются SEO отлично знают весь софт, позволяющий отследить все 404 ошибки... это и SeoScreaminFrog и всякие netpeak spider, comparser, xenu, да мало ли. Saas решения не отстают - seoto.me и куча других.
В каждом из этих решений как правило есть отдельный отчет - источники 404 ошибок.
А вообще 404 ошибка никак не влияет на ранжирование, если мы за SEO
https://support.google.com/webmasters/answer/2409439?hl=ru&ref_topic=2446029