Чем спарсить УРЛы из выдачи Яндекс?

H4
На сайте с 14.11.2018
Offline
23
859

Добрый день!

Есть задача, нужно вытянуть УРЛы собственного сайта (интернет-магазин) из выдачи Яндекса по определенному запросу. Хотя бы до 50 страниц, лучше вообще все.

Для Гугла есть множество парсеров, для Яндекса ничего рабочего не нашел, кроме A-Parser. Задача на пару раз, поэтому не хотелось бы покупать софт за $200.

Попробовал делать эту вручную с помощью расширения (граббер ссылок), но это крайне неудобный вариант.

Может кто подскажет, каким инструментом это можно сделать?

Заранее спасибо!

LEOnidUKG
На сайте с 25.11.2006
Offline
1762
#1
Яндекс XML не пробовали?
✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
H4
На сайте с 14.11.2018
Offline
23
#2
LEOnidUKG #:
Яндекс XML не пробовали?

Пробовал, но это не сильно ускоряет работу без специального скрипта. Вручную за раз в файле можно вытянуть 100 ссылок, в свою очередь эти ссылки тоже надо вытащить из xml...

LEOnidUKG
На сайте с 25.11.2006
Offline
1762
#3
Hita4 #:

Пробовал, но это не сильно ускоряет работу без специального скрипта. Вручную за раз в файле можно вытянуть 100 ссылок, в свою очередь эти ссылки тоже надо вытащить из xml...

Вам единоразово это надо или постоянно?

H4
На сайте с 14.11.2018
Offline
23
#4
LEOnidUKG #:

Вам единоразово это надо или постоянно?

Пару раз в месяц и реже... 

phoenix555
На сайте с 20.11.2008
Offline
165
#5
50 страниц не получится, Яндекс выдаёт максимум 250 результатов (5 страниц с numdoc=50).
100 результатов можно получить из прямой выдачи через XMLRiver с помощью этой программки и выгрузить в эксель.
💦💦💦 XMLRiver.com - Выдача Google и Yandex в формате XML.Yandex | От 10р за 1000 запросов 🍀🍀🍀 KeyAssort.com - Программа для профессиональной кластеризации поисковых запросов
H4
На сайте с 14.11.2018
Offline
23
#6
phoenix555 #:
50 страниц не получится, Яндекс выдаёт максимум 250 результатов (5 страниц с numdoc=50).

Да, в этом и проблема... Остальное приходится выгружать по 10 шт.

Неужели нет парсера, который сможет через тот же Yandex XML вытащить информацию?

callidus
На сайте с 18.07.2011
Offline
342
#7
через screaming frog в разделе xpath
Моментальный сбор семантического ядра и частотности за копейки https://clck.ru/3KYdWE.
H4
На сайте с 14.11.2018
Offline
23
#8
callidus #:
через screaming frog в разделе xpath

Спасибо за решение!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий