- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Программа Majento SiteAnalyzer предназначена для анализа и аудита сайта (коды ответа сервера, наличие "битых" ссылок, ссылки на внешние ресурсы, проверка наличия title, мета-тегов, заголовков h1-h6, проверка наличия дублей страниц и т.п.). Это бесплатный аналог таких программ, как Screaming Frog SEO Spider и Netpeak Spider.
Анализ производится путем сканирования всех страниц сайта (переобход сайта по ссылкам), после чего, на основе полученных данных, можно проводить аудит интересующих параметров.
Основные возможности
Отличия от аналогов
Будем рады любым замечаниям и пожеланиям по работе и развитию программы.
Страница программы: http://www.majento.ru/index.php?page=majento-site-analyzer
Скачать: majento-siteanalyzer.zip (37 Мб)
Бегло протестил, за чашкой кофе )
При запуске ругнулась на БД, не вник че то в суть ошибки, предложила перезапустить себя. После перезапуска все норм.
Просканила маленький сайт довольно шустро. Количество найденных ссылок вполне адекватно и соответствует действительности.
В поле "заголовок" проблема с кодировкой (скрин).
Сортировка по полям не меняет порядок записей, а перемещает просто курсор/активную строку в конец таблицы.
Как считается время парсинга?
Бегло протестил, за чашкой кофе )
При запуске ругнулась на БД, не вник че то в суть ошибки, предложила перезапустить себя. После перезапуска все норм.
Просканила маленький сайт довольно шустро. Количество найденных ссылок вполне адекватно и соответствует действительности.
В поле "заголовок" проблема с кодировкой (скрин).
Сортировка по полям не меняет порядок записей, а перемещает просто курсор/активную строку в конец таблицы.
Как считается время парсинга?
Время парсинга видел, он просто не обнуляется каждый раз - поправим
С кодировкой тоже понял что есть проблемы у некоторых сайтов - будем исправлять
Проблема с кодировкой заголовка (причем проблема только с заголовком, т.к. description и keywords нормально отображаются):
UPD:
Не посмотрел другие сообщения выше :\
тоже вчера тестил, тоже проблема с кодировкой в заголовке.
написал в саппорт, там спросили примеры сайтов а я замотался и не ответил :o
хорошо что тему увидел, сейчас отпишусь :)
---------- Добавлено 22.11.2016 в 03:23 ----------
отправил примеры сайтов в саппорт.
хорошая программа, а если убрать багу с кодировкой и побольше функций добавить то вообще круть будет :)
например, в аналогах есть удобная функция перехода по ссылке из списка.
Не знаю для чего создавалась данная утилита, но преимуществ относительно конкурентов не видно абсолютно никаких.
Для примера закинул парсить сайт - 3936 URL
Закинул в данную утилиту и в Screaming Frog SEO Spider
Первое что бросилось в глаза - неправильная кодировка у Title. Второе - скорость обхода. Покуда Majento прошел 14%, Frog прошел 100%. В самой программе какая-то странная сортировка. Нет настроек по полям информации. Зачем мне в обязательном порядке считать число слов на странице и время её отзыва?
В оправдание существования такой программы можно указать только то что я не видел бесплатных полнофункциональных аналогов. Сама же программа очень сырая.
Не знаю для чего создавалась данная утилита, но преимуществ относительно конкурентов не видно абсолютно никаких.
Для примера закинул парсить сайт - 3936 URL
Закинул в данную утилиту и в Screaming Frog SEO Spider
Первое что бросилось в глаза - неправильная кодировка у Title. Второе - скорость обхода. Покуда Majento прошел 14%, Frog прошел 100%. В самой программе какая-то странная сортировка. Нет настроек по полям информации. Зачем мне в обязательном порядке считать число слов на странице и время её отзыва?
В оправдание существования такой программы можно указать только то что я не видел бесплатных полнофункциональных аналогов. Сама же программа очень сырая.
Во-первых, это всего лишь первая версия )
Во-вторых, она бесплатная, поэтому не требуйте бОльшего от первых версий
Во-третьих - не увидел того, чего нельзя исправить и допилить в ближ. версиях, чтобы приблизиться к функционалу платных конкурентов (скорость, title, сортировки - это все мелочи по сути)
Поэтому, присылайте отчеты по багам - будем исправлять
И следите за обновлениями ;)
Во-первых, это всего лишь первая версия )
Во-вторых, она бесплатная, поэтому не требуйте бОльшего от первых версий
Во-третьих - не увидел того, чего нельзя исправить и допилить в ближ. версиях, чтобы приблизиться к функционалу платных конкурентов (скорость, title, сортировки - это все мелочи по сути)
Поэтому, присылайте отчеты по багам - будем исправлять
И следите за обновлениями ;)
Я понимаю. Первая версия, сырая. Но все таки даже интерфейсные решения можно было подсмотреть у топовых продуктов.
С удовольствием попробую новые версии. Успехов в разработке!
А символы считает с пробелами или без?
А символы считает с пробелами или без?
По идее проблелы должны игнорироваться
Как уже писали выше, проблемы с кодировкой.
Мне бы еще пригодился экспорт результатов в xml, с выбором полей данных, что экспортировать.
Работа с БД весьма круто, таким образом можно работать с сайтами с 1кк+ страниц, правда с учетом вышеобозначенных проблем, я так и не запустил парсинг подобного проекта.