- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
chaser
приветствую, подскажи пожалуйста из-за чего может быть потеря вставляемых урлов?
все урлы имеют синтаксис: "https://site.ru"
беру список из 500 урлов, вставляю через "вставить из буфера", вставляется только 491 урл - копировал эти урлы из эксель и блокнота.
потом пробовал загружать уплы из txt файла, точно такая же потеря.
уменьшал количество вставляемых урлов - но все равно вставляет не все.
chaser
подскажи пожалуйста, после окончания парсинга софт не выходит из режима парсинга и не дает скачать файл с результатами, такой баг появляется через раз: http://prntscr.com/13aqadp
возможно это подправить?
chaser
приветствую, подскажи пожалуйста из-за чего может быть потеря вставляемых урлов?
все урлы имеют синтаксис: "https://site.ru"
беру список из 500 урлов, вставляю через "вставить из буфера", вставляется только 491 урл - копировал эти урлы из эксель и блокнота.
потом пробовал загружать уплы из txt файла, точно такая же потеря.
уменьшал количество вставляемых урлов - но все равно вставляет не все.
Возможно это возникает из-за дублей УРЛ.
Функция скрейпинга появится в новой версии программы SiteAnalyzer, так что в ней скорее всего данный баг будет исправлен.
интересный парсер... )
не хватает мануала к нему, ну или несколько кейсов в которых программа оказалось полезной ;)
интересный парсер... )
не хватает мануала к нему, ну или несколько кейсов в которых программа оказалось полезной ;)
Совсем скоро добавим мануал с реальными примерами
А пока, можно пользоваться шаблонами для парсинга из этой статьи - https://site-analyzer.ru/articles/buscr/
Здравствуйте. В программе как-то можно обойти 403 ошибку при проверке URL? На странице, с которой надо получить данные, подключен cloudflare. И, видимо, он вызывает ее.
Здравствуйте. В программе как-то можно обойти 403 ошибку при проверке URL? На странице, с которой надо получить данные, подключен cloudflare. И, видимо, он вызывает ее.
Здравствуйте!
Хочу узнать, как с помощью вашей программы скопировать ссылки на другие страницы с 1й страницы, чтобы при этом выдавались только нужные, т.е. установить некий фильтр, чтобы, допустим, из 300 ссылок на странице в результате были те, что нужны?
Школы Ростовской области | Конструктор сайтов образовательных учреждений 15kidsПример: есть сайт
отсюда мне нужно скопировать все ссылки на школы, при этом, чтобы не было побочных ссылок. Как это сделать, помогите, пожалуйста!
Здравствуйте, я так понимаю можно парсить с сайта по своим логином?