Хм, поправим в ближайшем обновлении.
И, кстати, рекомендую привести в соответствие кодировку сайта с декларацией в meta http-equiv="content-type", из-за этого у вас и кодировка заголовков слетает. Прописана одна кодировка, а по факту другая. Из-за этого могут быть и санкции со стороны поисковиков.
Выставите правильную кодировку сайта в настройках сканирования.
Установите Microsoft .NET Framework 3.5. А вообще для таких вопросов существует техподдержка.
Доступно обновление 2.1.8
Доработан обработчик масок в robots.txt, добавлена возможность копировать URL в буфер обмена в любую таблицу где этот URL присутствует.
Выложили обновление до 2.1.7
Теперь корректно обрабатываются кириллические домены в которых ссылки в кириллице шли вместе с пуникодом. Корректно обрабатывается тег: meta name="robots". Программа обрабатывает "валидные" написания тега noindex.
Доступно обновление 2.1.6
Исправлены баги при формировании xls файла из-за невалидных символов.
Теперь в отчеты и карту сайта не попадают закрытые страницы.
Добавлен экспорт закрытых ссылок на отдельный лист при экспорте в эксель.
Доступно обновление 2.1.5
Исправлен обработчик тега <meta name='robots' />, добавлена защита от начала сканирования при установленом флажке "Использовать список страниц" но не загруженном списке и проведены мелкие доработки и оптимизация кода.
Выложили обновление с исправлениями.
Выложили обновление до 2.1.4
Вернули по-умолчанию простой фильтр страниц. Однако, если кому-то понравилась реализация расширенного фильтра - его можно включить в настройках "Расширенный фильтр".
Так же добавили отчет по внешним ссылкам с донорами.
Так же обновили дистрибутивы. Теперь скачивается и инсталлируется последняя версия.
Это из-за того что обновление выкладывается раньше новых дистрибутивов. Сейчас сделаем еще один апдейт и выложим обновленные дистрибутивы.