- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
1. Отличный инструмент, за счет экспорта в CSV - в некоторых частных случаях даже практичнее, чем то же самое в SA
2. Из коробки и без проксей вполне прилично и очень шустро работает (5 правил на 400+ страниц - 200 секунд)
Есть маленькая низкоприоритетная просьба/пожелание - для облегчения совместной работы над проектом сделать в интерфейсе возможность импорта-экспорта набора правил... взять из BatchURLScraper.json нужную строку/строки и передать ее можно и сейчас, просто будет слегка удобнее, если на той стороне "обезьяна с гранатой"
1. Отличный инструмент, за счет экспорта в CSV - в некоторых частных случаях даже практичнее, чем то же самое в SA
2. Из коробки и без проксей вполне прилично и очень шустро работает (5 правил на 400+ страниц - 200 секунд)
Есть маленькая низкоприоритетная просьба/пожелание - для облегчения совместной работы над проектом сделать в интерфейсе возможность импорта-экспорта набора правил... взять из BatchURLScraper.json нужную строку/строки и передать ее можно и сейчас, просто будет слегка удобнее, если на той стороне "обезьяна с гранатой"
Доброго времени суток!
Тривиальная задача - получить пару строчек с текстом с сайта. Но я не программист... даже HTML template не соображу как написать в "Правилах"
Например. Вытащить из https://whois.ru/yandex.ru две сточки текста - domain: YANDEX.RU и paid-till: 2022-09-30T21:00:00Z
Какое "Правило" я должен задать, что бы получить искомое?
День добрый.
Насколько я понимаю, сейчас в программе BatchURLScraper при задании, к примеру 2-х правил и выборке по ним из 10-страниц, сперва выбирается по правилу 1 из всех 10-ти страниц, потом по правилу 2, также из всех 10-ти страниц.
В отчёте это выглядит как 10 результатов по правилу 1, ПОТОМ идут 10 результатов по правилу 2.
Есть ли возможность сделать, чтобы по каждой странице сперва отрабатывали все правила, только потом переходить к обработке следующей?
В отчёте будет результат правила 1, потом правила 2 для первой страницы, потом так же для 2-й страницы и т.д.
Спасибо.
Доброго времени суток!
Тривиальная задача - получить пару строчек с текстом с сайта. Но я не программист... даже HTML template не соображу как написать в "Правилах"
Например. Вытащить из https://whois.ru/yandex.ru две сточки текста - domain: YANDEX.RU и paid-till: 2022-09-30T21:00:00Z
Какое "Правило" я должен задать, что бы получить искомое?
День добрый.
Получить текстовый блок, где содержится искомое, Вы можете по выражению: //*/div[2]/pre[@class="raw-domain-info-pre"]
Оттуда отрежьте строки, нужные Вам.
День добрый.
Получить текстовый блок, где содержится искомое, Вы можете по выражению: //*/div[2]/pre[@class="raw-domain-info-pre"]
Оттуда отрежьте строки, нужные Вам.
Спасибо!
Пока ждал ответа, наковырял пару других способов... если ничего не получается, в конце концов, прочтите инструкцию! 😀
Для XPath - //*[text()[contains(.,'Domain Name:')]]
Для HTMP template - <pre class="raw-domain-info-pre">{text()}</pre>
Чего пока не смог сделать... даже инструкция пока не помогает... это именно вырезать нужные фрагменты из текстового блока.
Для XPath - //*[text()[contains(.,'Domain Name:')]]
...
Чего пока не смог сделать... даже инструкция пока не помогает... это именно вырезать нужные фрагменты из текстового блока.
Этот xPath у меня не работает - не находит ничего.
По вырезке - так это уже блок, его обрабатывать чем-то другим надо, регекспами, к примеру.
В том же Notepad++ открыть экспорт и регулярками вырезать.
Этот xPath у меня не работает - не находит ничего.
По вырезке - так это уже блок, его обрабатывать чем-то другим надо, регекспами, к примеру.
В том же Notepad++ открыть экспорт и регулярками вырезать.
Да... по строке поиска 'Domain Name:' действительно, ничего не найдет. Там такого текста в блоке просто нет. Если вместо него подставить 'paid-till:', то все работает.
А по вырезке... м-да, немного неудобно получается. Ну значит буду Экселем резать лишнее - макросы мне в помощь.
Если вместо него подставить 'paid-till:', то все работает.
Да, там можно ставить что угодно из содержимого текстового блока, на выбор:
nserver, state, org...
org самый короткий.
Эксель не обязательно запускать. CSV, это текстовый формат, почти любой текстовый редактор открывает.