- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, всем привет.
Кто-нибудь знает, можно ли в Screaming Frog настроить парсинг так, чтобы собирались не все параметры, а только те, которые мы задаем? условно говоря, только собрать твои параметры (Например, только Н1), а не собирать все параметры по каждой странице?
Как это можно сделать?
Коллеги, всем привет.
Кто-нибудь знает, можно ли в Screaming Frog настроить парсинг так, чтобы собирались не все параметры, а только те, которые мы задаем? условно говоря, только собрать твои параметры (Например, только Н1), а не собирать все параметры по каждой странице?
Как это можно сделать?
Вроде никак. А зачем это? Ведь собрав всё можно смотреть только то то нужно.
Вроде никак. А зачем это? Ведь собрав всё можно смотреть только то то нужно.
время.
для большого сайта очень долго собирать все параметры.
Скажите, а как вы вообще парсите большой сайт? Я как раз тему создала с вопросом - как это делать для сайта, у которого в поиске 2 млн страниц, а сам он состоит из 8 млн. Мне посоветовали по битым ссылкам Xenu, но процесс очень долго проходит, возможно есть какие-то умные методы, как такие сайты анализировать?
Скажите, а как вы вообще парсите большой сайт? Я как раз тему создала с вопросом - как это делать для сайта, у которого в поиске 2 млн страниц, а сам он состоит из 8 млн. Мне посоветовали по битым ссылкам Xenu, но процесс очень долго проходит, возможно есть какие-то умные методы, как такие сайты анализировать?
пробовал разные сервисы.
Можно использовать Нетпик, можно - https://jetoctopus.com/, можно - https://seo-utils.ru/.
Но наверняка есть и другие сервисы.
Павел Горбунов,
Спасибо!
Явное непонимание, как работают парсеры подобного рода (что NetPeak, что Screaming Frog, что Xenu).
99% времени уходит на выкачивание страниц и выбор ссылок с этих страниц для остроение очереди далее скачиваемых страниц - вот тут есть потери времени, т.к. логично делается проверка на уникальные адреса в очереди, чтобы по 10 раз один и тот же URL не скачивать - эти процессы на больших объемах затратны.
Все остальное извлекаемое - все те параметры, на обработке которых Вы думаете "съэкономить" - это статистически незначимые затраты времени.
Так что вопрос в принципе бессмысленный. Будучи выкаченной на компьютер, страница парсится почти моментально.
Явное непонимание, как работают парсеры подобного рода (что NetPeak, что Screaming Frog, что Xenu).
99% времени уходит на выкачивание страниц и выбор ссылок с этих страниц для остроение очереди далее скачиваемых страниц - вот тут есть потери времени, т.к. логично делается проверка на уникальные адреса в очереди, чтобы по 10 раз один и тот же URL не скачивать - эти процессы на больших объемах затратны.
Все остальное извлекаемое - все те параметры, на обработке которых Вы думаете "съэкономить" - это статистически незначимые затраты времени.
Так что вопрос в принципе бессмысленный. Будучи выкаченной на компьютер, страница парсится почти моментально.
ок, понятно.
хотя какого-то решения все равно не найдено.
Скажите, а как вы вообще парсите большой сайт? Я как раз тему создала с вопросом - как это делать для сайта, у которого в поиске 2 млн страниц, а сам он состоит из 8 млн. Мне посоветовали по битым ссылкам Xenu, но процесс очень долго проходит, возможно есть какие-то умные методы, как такие сайты анализировать?
https://techaudit.site/ru/ - проверен на сайтах у которых более 10 млн. страниц.
https://techaudit.site/ru/ - проверен на сайтах у которых более 10 млн. страниц.
Интересно.
А какие цены?
Интересно.
А какие цены?
Бесплатно.