- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Сколько времени прога ждёт открытия страницы, прежде чем посчитает ссылку битой?
Около 10 секунд.
Проект за 350к страниц, хотя честно не знаю откуда там столько. Как остановить его и пересчитать вес? А то уже камп ложится от вашей программы..
Кнопка "остановить сканирование".
Выложили экспресс обновление 2.0.5
Исправлен баг с зависанием сканирования и процесса отмены, испрвлен обработчик robots.txt
Обновление доступно автоматически при запуске программы или нажатии кнопки "Поиск обновлений".
Около 10 секунд.
А время ожидания зависит от задержки при парсинге и числа потоков?
Если быть точным то таймаут 15 секунд.
А время ожидания зависит от задержки при парсинге и числа потоков?
Нет, не зависит. Один поток открывает одну страницу и таймаут считается для каждого потока.
Исправлен баг с зависанием сканирования и процесса отмены
Не исправлен, не смог остановить сканирование, пришлось выключать программу. Писало дождитесь окончания очереди, а потом продолжало сканировать дальше. Плохо что бэкапы предыдущих версий не сохраняет, при обновлении.
Очередное экспресс обновление 2.0.6
Исправлен (теперь, надеюсь, окончательно) баг с зависанием при оставновке, а так же появление ошибки при автодосканировании.
Не исправлен, не смог остановить сканирование, пришлось выключать программу. Писало дождитесь окончания очереди, а потом продолжало сканировать дальше. Плохо что бэкапы предыдущих версий не сохраняет, при обновлении.
Обновите программу. Правда, нужно удалить проект и создать его заново.
в общем кириллический домен пытался спарсить..
[ATTACH]117070[/ATTACH]
вот еще
[ATTACH]117071[/ATTACH]
за доменом пишите в личку.. хотя и на других сайтах также выбивает..
[ATTACH]117073[/ATTACH]
P.S. К счастью, в данном топике (как и в предыдущих ветках), людей, как Str256, много больше. И благодаря им, программа развивается. За что им, огромное спасибо!
Вот вы бы тестировщикам и дали возможность получения инвайтов для покупки программы, без резервирования средств:)
Порчему-то сканер не запоминает параметры сканирования для проектов, полистал сейчас пректы посмотреть с какими задержками сканировал, везде написано - нет, хотя точно ставил, и кодировку не запомнил, помнит только число потоков.
И с битыми ссылками, можно переделать? Чтобы бы просто список уникальных страниц которые не отвечают, а справа в графе "страница с ошибкой" - цифра ссылок которые на неё стоят с других страниц. И только при клике на эту строчку чтобы открывалось окно где были видно с каких страниц стоят ссылки на неё. И чтобы было в контекстном меню мыши поле - перейти по битой ссылке - сейчас нету такого.
2 wlad2 Ошибку с PRIMARY KEY вроде отловили. В ближайшее время выложим обновление.
Вот вы бы тестировщикам и дали возможность получения инвайтов для покупки программы, без резервирования средств:)
Да не вопрос, стукните в личку, договоримся :)
И с битыми ссылками, можно переделать? Чтобы бы просто список уникальных страниц которые не отвечают, а справа в графе "страница с ошибкой" - цифра ссылок которые на неё стоят с других страниц. И только при клике на эту строчку чтобы открывалось окно где были видно с каких страниц стоят ссылки на неё. И чтобы было в контекстном меню мыши поле - перейти по битой ссылке - сейчас нету такого.
Сделаем отдельные вкладки "Запрещенные страницы" и "Страницы с ошибками"
Sterh, вопрос, если сервер не успел в отведённый промежуток времени отдать страницу полностью т.е. в заголовке передал Content-Length: 10326
получил меньше, а время кончилось?
как поведёт себя программа,
посчитает весь url битым или будет анализировать то что успела получить?