Про съем позиций по кеям в ру-Гуглах, нужен совет

12
A
На сайте с 02.04.2013
Offline
30
1773

Пишу прогу для SEO-шников, работающих по Рунету. Но с Гуглом конкретно общался недостаточно плотно, посему прошу совета...

Задача состоит в съеме позиций сайта по ключевикам.

Интересуют следующие вопросы, относительно Гугла:

- С одной стороны, региональность задается на уровне стран (.ru, .com.ua, .by), ее же можно указать в запросе параметром &gl=. С другой стороны в ру-гуглах есть возможность указать более точный таргеттинг на город или район, через интерфейс, или параметром &near=. Правда, разницы в глобальной выдаче я не заметил - меняется только реклама, карты и, возможно, локальная выдача... Какой уровень геопривязки необходимо учитывать? Т.е., просят ли клиенты (и как часто?), и имеет ли смысл продвигаться по городам, а соответственно и съем позиций делать по локальной выдаче с параметром &near=?

- Заметил, что при переключении языка интерфейса (русский/национальный) вроде бы меняется и поисковая выдача. Это так? Это учитывается в практике коммерческого продвижения? Следует вводить опцию учета языка при съеме позиций?

- Параметр запроса &filter=1, который, на сколько я понял, должен скрывать повторы сайтов в выдаче и сомнительные ресурсы... В настройках поиска же имеется три уровня фильтрации выдачи, при чем, по умолчанию стоит средний. Стоит ли использовать его при съеме позиций?

- Какие национальные ру-гуглы интересны в плане клиентской базы для SEO-компаний? .com.ua?, .by?, .kz?, еще?

- Парсить основную выдачу гугла - не вариант. Они заворачивают все (рекламу, локалку, глобалку,...) в одинаковые теги, с одинаковыми классами и без всякой нумерации. Да еще и блоки могут меняться местами. В итоге позиции могут быть сняты неверно. Пришел к выводу, что парсить надо ajax.googleapis.com (для всех гуглов вообще, прописывая гео-параметры в запросе), который является неким подобием Яндекс.XML, и выдает результаты почти совпадающие с основной выдачей, не имея при этом проблем с идентификацией глобальной выдачи. Я прав, или есть другие варианты?

ChiefRed.com - автоматизация массового производства статей для наполнения сайтов
A
На сайте с 02.04.2013
Offline
30
#1

Что, ни кто за деньги по ру-гуглу не двигает? Или я форум порепутал? Так нет же, Серч, однако!

SEO-спецы, для вас же софт пишу - поделитесь уже инфой, пожалуйста!

VE
На сайте с 25.10.2012
Offline
3
#2

Смешной Вы однако.

Хотите сделать всё и сразу. Парсить Google через API - вообще смешно.

W0
На сайте с 02.04.2007
Offline
189
#3

На данный момент у сеошников нет проблем снять позиции своих сайтов под google.ru com.ru и .by . Есть сервисы которые это делают.

Поэтому Ваш скрипт бесполезен.

d4k
На сайте с 02.03.2010
Offline
146
d4k
#4

Все, что Вам необходимо использовать при съеме позиций, так это домен+гео+принудительное обнуление персонализированной выдачи (для надежности либо для того, когда используются паблик прокси)

на практике: google.ru + &gl=ru + &pws=0

"hl" использовать вообще не имеет смысла т.к. он будет выдавать вам разные результаты в зависимости от языка интерфейса (я, к примеру, пользуюсь английским интерфейсом, хотя и задаю запросы на русском языке через google.com или google.com.ua).

Вот офф. документация по параметрам: developers.google.com/custom-search/docs/xml_results?hl=en

Proofer
На сайте с 04.11.2011
Offline
291
#5

Есть уже куча рабочего софта и скриптов. Сомневаюсь, что людям ещё что-то нужно.

Gennadi
На сайте с 18.12.2012
Offline
138
#6
Azrarn:


SEO-спецы, для вас же софт пишу

Пишите вы для себя☝ У нас есть так что не нервничайте это вредно.

A
На сайте с 02.04.2013
Offline
30
#7

d4k, спасибо! Ссылка уже пошла на пользу. Опыт тоже учту.

По поводу "есть уже куча софта"... Да, есть, но пробив позиций для моего случая - лишь необходимая часть задачи, а не конечный сервис. Заставлять пользователя делать это сторонним софтом и заливать полученные данные считаю недопустимым. Посему, выход один - включить парсилку в мой продукт.

vs_editor, а чем смешон парсинг через API? Какие еще есть альтернативы?

VE
На сайте с 25.10.2012
Offline
3
#8
Azrarn:
vs_editor, а чем смешон парсинг через API? Какие еще есть альтернативы?

Смешон тем, что можно отправить максимум 100 запросов в сутки, а дальше плати 5$ за каждую 1000 запросов. Альтернатива - это морда, с очисткой всей рекламы, карт и прочего мусора.

A
На сайте с 02.04.2013
Offline
30
#9

Про 100 запросов в сутки тоже полезно - не знал конкретного значения. Правда, что-то уж больно мало - я явно больше уже запрашивал. Вы не опечатались ноликом?

Самое смешное, что мне и 100 запросов в сутки в общем-то хватит. Такая вот специфическая задача - ключей мало.

Теперь про морду. Я сначала так и делал, а потом не нашел метода отличить, например, локальную выдачу от глобальной. Они идут единым списком, оформленные одинаковыми тегами с одинаковыми атрибутами. На глаз можно отличить только по географическим данным на сайтах. Из-за чего иногда позиции снимаются некорректно. Отсюда и порывы парсить API, где можно четко указать - "дай мне глобалку".

При чем, тестировал запросы, которые вызывали у меня глюки, на публичных сервисах - и они считают правильно. Т.е. либо они сами на API сидят, либо я тупой, "либо одно из двух" (с) Шэф.

VE
На сайте с 25.10.2012
Offline
3
#10

Знаю точно что AllPositions берет ТОП100 ==> они парсят точно не API, так как там можно брать масимум ТОП20. Почему точно знаю? - Потому что тестовый проект с запросами "1", "2", "3",... показал подряд идущие позиции для сайта wikipedia.org, т.е. присутсвует пресловутая группировка сайтов.

Кстати, не могу понять откуда Вы взяли параметр &near=?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий