Тоже загружал 10к урлов, программа зависла на ~7000 и не проверяла дальше на протяжении нескольких часов.
Ок, начал заново задачу, программа проверила все 10к урлов, но уникальность не выдала.
Подал 1500 урлов, только тогда отработала.
Сейчас подаю 5000 урлов, программа все проверила, но уже больше часа не определяет уникальность. В логе новых событий не появляется.
Версия 1.3 (build 21)
интересный парсер... )
не хватает мануала к нему, ну или несколько кейсов в которых программа оказалось полезной ;)
Совсем скоро добавим мануал с реальными примерами
А пока, можно пользоваться шаблонами для парсинга из этой статьи - https://site-analyzer.ru/articles/buscr/
chaser
приветствую, подскажи пожалуйста из-за чего может быть потеря вставляемых урлов?
все урлы имеют синтаксис: "https://site.ru"
беру список из 500 урлов, вставляю через "вставить из буфера", вставляется только 491 урл - копировал эти урлы из эксель и блокнота.
потом пробовал загружать уплы из txt файла, точно такая же потеря.
уменьшал количество вставляемых урлов - но все равно вставляет не все.
Возможно это возникает из-за дублей УРЛ.
Функция скрейпинга появится в новой версии программы SiteAnalyzer, так что в ней скорее всего данный баг будет исправлен.
Она 32-битная, видимо в этом проблема.
хорошая программа
смените кодировку отчета вместо win-1251 на utf-8
2. Возможно есть другой софт для парсинга, который не привязан так к объему оперативки?
Попробуйте SiteAnalyzer - это аналогичная программа для аудита сайта, распространяется бесплатно