- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Вышла новая версия Telegram с историями от каналов и системой бустов от подписчиков
Premium-пользователи могут передавать свой голос каналу 1 раз в сутки
Оксана Мамчуева
Уважаемые коллеги!
После долгого затишья хочу сообщить о возобновлении разработки программы Majento SiteAnalyzer, которая предназначена для анализа и аудита сайта (коды ответа сервера, наличие "битых" ссылок, ссылки на внешние ресурсы, проверка наличия title, keywords, description, заголовков h1-h6, проверка наличия дублей страниц и т.п.). Это бесплатный аналог таких программ, как Screaming Frog SEO Spider и Netpeak Spider.
Анализ производится путем сканирования всех страниц сайта (переобход сайта по ссылкам), после чего, на основе спарсенных данных, можно проводить аудит интересующих параметров.
Основные возможности
Отличия от аналогов
Буду рад любым замечаниям и пожеланиям по работе и развитию программы.
Страница программы: http://www.majento.ru/index.php?page=majento-site-analyzer
Скачать: majento-siteanalyzer.zip (2,5 Мб)
Протестировал, отличная программа! Обычно пользуюсь древней Xenu's Link Sleuth, вот чего не хватает, что есть в выше упомянутой программе:
1) Возможность начать анализ не с корня сайта, а например с определенной страницы site.ru/category/article.html
2) Почему то не показывает внешние ссылки на youtube видео.
3) Не нашел где посмотреть какие страницы ссылаются, например на найденную битую ссылку.
Чего хотелось бы, не видел программ с таким функционалом (только плагины для CMS): поиск ссылок на удаленные или битые видео youtube.
chaser, DA и PA и mozrank пусть парсит можно платно:)
Протестировал, отличная программа! Обычно пользуюсь древней Xenu's Link Sleuth, вот чего не хватает, что есть в выше упомянутой программе:
1) Возможность начать анализ не с корня сайта, а например с определенной страницы site.ru/category/article.html
2) Почему то не показывает внешние ссылки на youtube видео.
3) Не нашел где посмотреть какие страницы ссылаются, например на найденную битую ссылку.
Чего хотелось бы, не видел программ с таким функционалом (только плагины для CMS): поиск ссылок на удаленные или битые видео youtube.
1. Да, есть такое что берется из ссылки корневой домен, поправим
2. Нужен пример
3. Реализуем в следующей версии
4. Если и добавим то явно не в ближайшее время
---------- Добавлено 25.09.2017 в 14:40 ----------
chaser, DA и PA и mozrank пусть парсит можно платно:)
Пока есть более насущные задачи
Возможность начать анализ не с корня сайта, а например с определенной страницы site.ru/category/article.html
Проверил - начинает сканировать с введенного URL
Либо также как с Ютубе нужен пример
chaser, Научите вашего паука слать корректные заголовки браузеров и принимать куки, а также корректно следовать за js редиректом.
---------- Добавлено 26.09.2017 в 08:12 ----------
И ещё баг:
сайт запрещён к индексации в файле robots.txt
Вот роботс:
User-agent: *
Disallow: /admin/
Disallow: /template_cms/
Disallow: /plugins/
User-agent: Yahoo
Disallow: /
User-agent: MJ12bot
Disallow: /
Host: https://ddosov.net
Sitemap: https://ddosov.net/sitemap.xml
chaser, Научите вашего паука слать корректные заголовки браузеров и принимать куки, а также корректно следовать за js редиректом.
---------- Добавлено 26.09.2017 в 08:12 ----------
И ещё баг:
сайт запрещён к индексации в файле robots.txt
Роботс поправим
Что не так с заголовками?
chaser, А, это он из-за роботса нехотел сканировать.
chaser, Научите вашего паука принимать куки
Куки принимаются, у каждого потока свои
Проверил - начинает сканировать с введенного URL
Либо также как с Ютубе нужен пример
Да, действительно начинает сканировать с введенного URL, но в строке URL обрезает до корня (это ввело в заблуждение). И в проектах показывает только URL корня и если я захочу проверить другой внутренний URL этого же сайта, то перезаписывает проект. Это все нужно для того, если я хочу проверить несколько внутренних страниц одного сайта и использую макс. глубину 1, чтобы записывало это в разные проекты.
Насчет ссылок на видео Youtube, например, вот страница: http://www.jlady.ru/soup/kak-varit-uxu-iz-shhuki.html там ссылка такого вида:
Сделал анализ сайта. В отчете вижу "кривую" внутреннюю ссылку. Можно ли с помощью вашего сервиса определить Урл странички, на которой расположена найденная "кривая" ссылка?