Виталий Макаркин

Виталий Макаркин
Рейтинг
99
Регистрация
24.06.2011
http://www.Makarkin.pro
byterus:
Виталий Макаркин, если эти настройки сделаны
/ru/forum/comment/14877972
и позиции экспортированы так
/ru/forum/comment/14878098
то в результате должна получиться вся выдача.

да теперь все норм.

Вопрос а можно экспортировать точный найденный URL еще а не только сам домен? Или программа не сохраняет эти данные?

---------- Добавлено 20.01.2017 в 16:27 ----------

И вопрос 2: программа дает BAN, хотя задержки увеличил со стандартных до 10 000 - 13 500. Есть идеи почему? ********а автоматом через antigate.

NEWProject:
ДА - http://prntscr.com/dxs8md

В упор не вижу как мне все это дело в Excel экспортировать) Все пересмотрел.

У меня только 19 Участниках и отображается и Экспортируется... По идее там должно до 1000 ссылок быть

Так парсит SERP парсер всю выдачу как мне надо (абсолютно всю по запросу) или нет?

NEWProject:
Писать свое это заказывать парсер под ваши нужны, если бюджет позволяет то можно. Но учтите, что если где-то сменится структура сайта или верстка то нужно будет привлекать снова специалиста (если конечно сами этим не занимаетесь).
Если брать Датакол, то главное 1 раз настроить проект/проекты, далее вы уже сами с минимальными знаниями можете подправлять его под ваши нужды.
1) Выдачу конечно проще парсить спец софтом, вроде серп парсера, но можно настроить и Датакол
2) По Яндекс справочнику есть наработки, там реальней парсить, хотя если вам только искать по домену, то можно искать и в справочнике и по карте
3) 2Гис также можно

датакол закроет все вопросы? я просто с теме парсинга еще новичок) Если у кого еще будут мысли напишите) спасибо)

NEWProject:
Яндекс карты ввели ограничение на выдачу результатов, если не ошибаюсь то 20 значений.
2 Гис можно Датаколом собирать и сохранять в ексель

Мне что нужно:

1) Собрать URL по запросу все что есть Яндекс + Гугл

2) Прочекать каждый домен по ЯндексПоискПоОрганизациям (и видел что до 500 api запросов в сутки дают), ну и если тут не найду прочекать по 2ГИС

3) Сохранить нужные данные в CSV.

Как лучше реализовать? Писать свое, или DataCol смотрю вроде мощный инструмент. Может просто купить его он справится с этим?

byterus:
Виталий Макаркин, точно, ведь нужна вся выдача. Для этого нужно немного изменить настройки:
1. Изменить режим поиска
http://serpparser.ru/doc_keywords.html#keyword_manager
установить Анализировать всю выдачу, и снять галочку Ограничить глубину поиска, тогда программу будет собирать
2. В настройках проекта
http://serpparser.ru/doc_project_options.html
снять галочку с Хранить только позиции целей.

толи я не туда нажал. ТОП 10 только https://www.screencast.com/t/hC23jyF803k

byterus:
Виталий Макаркин
/ru/forum/comment/13875643

если я поставлю отображать в результатх поиска не 10 а 100 результатов, и таких будет 10 страниц. И теоритически предположим 1000 разных URL.

Все эту выгрузку я получу? или только ТОП 100 ограничится?

byterus:
С первым пунктом справится SERP Parser, в программе можно снять всю выдачу (включая рекламу) с последующей выгрузкой в Excel.

не могу уловить как спарсить все 1000 страниц гугла, яндекс их домены вместе с контекстной реклмой яндекс и гугла, в данной программе?

у меня он только ТОП10 вывел url.

и можно больше 500 запросов, если с разными API? или по IP не пропустят и IP надо еще дополнительно прокси...?

А кто подскажет как формировать запрос на поиск по домену?

https://search-maps.yandex.ru/v1/?text=http://domain.ru/&type=biz&lang=ru_RU&apikey=ТУТ КЛЮЧ

оно? по другому не дано?

Всего: 335