- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пишу прогу для SEO-шников, работающих по Рунету. Но с Гуглом конкретно общался недостаточно плотно, посему прошу совета...
Задача состоит в съеме позиций сайта по ключевикам.
Интересуют следующие вопросы, относительно Гугла:
- С одной стороны, региональность задается на уровне стран (.ru, .com.ua, .by), ее же можно указать в запросе параметром &gl=. С другой стороны в ру-гуглах есть возможность указать более точный таргеттинг на город или район, через интерфейс, или параметром &near=. Правда, разницы в глобальной выдаче я не заметил - меняется только реклама, карты и, возможно, локальная выдача... Какой уровень геопривязки необходимо учитывать? Т.е., просят ли клиенты (и как часто?), и имеет ли смысл продвигаться по городам, а соответственно и съем позиций делать по локальной выдаче с параметром &near=?
- Заметил, что при переключении языка интерфейса (русский/национальный) вроде бы меняется и поисковая выдача. Это так? Это учитывается в практике коммерческого продвижения? Следует вводить опцию учета языка при съеме позиций?
- Параметр запроса &filter=1, который, на сколько я понял, должен скрывать повторы сайтов в выдаче и сомнительные ресурсы... В настройках поиска же имеется три уровня фильтрации выдачи, при чем, по умолчанию стоит средний. Стоит ли использовать его при съеме позиций?
- Какие национальные ру-гуглы интересны в плане клиентской базы для SEO-компаний? .com.ua?, .by?, .kz?, еще?
- Парсить основную выдачу гугла - не вариант. Они заворачивают все (рекламу, локалку, глобалку,...) в одинаковые теги, с одинаковыми классами и без всякой нумерации. Да еще и блоки могут меняться местами. В итоге позиции могут быть сняты неверно. Пришел к выводу, что парсить надо ajax.googleapis.com (для всех гуглов вообще, прописывая гео-параметры в запросе), который является неким подобием Яндекс.XML, и выдает результаты почти совпадающие с основной выдачей, не имея при этом проблем с идентификацией глобальной выдачи. Я прав, или есть другие варианты?
Что, ни кто за деньги по ру-гуглу не двигает? Или я форум порепутал? Так нет же, Серч, однако!
SEO-спецы, для вас же софт пишу - поделитесь уже инфой, пожалуйста!
Смешной Вы однако.
Хотите сделать всё и сразу. Парсить Google через API - вообще смешно.
На данный момент у сеошников нет проблем снять позиции своих сайтов под google.ru com.ru и .by . Есть сервисы которые это делают.
Поэтому Ваш скрипт бесполезен.
Все, что Вам необходимо использовать при съеме позиций, так это домен+гео+принудительное обнуление персонализированной выдачи (для надежности либо для того, когда используются паблик прокси)
на практике: google.ru + &gl=ru + &pws=0
"hl" использовать вообще не имеет смысла т.к. он будет выдавать вам разные результаты в зависимости от языка интерфейса (я, к примеру, пользуюсь английским интерфейсом, хотя и задаю запросы на русском языке через google.com или google.com.ua).
Вот офф. документация по параметрам: developers.google.com/custom-search/docs/xml_results?hl=en
Есть уже куча рабочего софта и скриптов. Сомневаюсь, что людям ещё что-то нужно.
SEO-спецы, для вас же софт пишу
Пишите вы для себя☝ У нас есть так что не нервничайте это вредно.
d4k, спасибо! Ссылка уже пошла на пользу. Опыт тоже учту.
По поводу "есть уже куча софта"... Да, есть, но пробив позиций для моего случая - лишь необходимая часть задачи, а не конечный сервис. Заставлять пользователя делать это сторонним софтом и заливать полученные данные считаю недопустимым. Посему, выход один - включить парсилку в мой продукт.
vs_editor, а чем смешон парсинг через API? Какие еще есть альтернативы?
vs_editor, а чем смешон парсинг через API? Какие еще есть альтернативы?
Смешон тем, что можно отправить максимум 100 запросов в сутки, а дальше плати 5$ за каждую 1000 запросов. Альтернатива - это морда, с очисткой всей рекламы, карт и прочего мусора.
Про 100 запросов в сутки тоже полезно - не знал конкретного значения. Правда, что-то уж больно мало - я явно больше уже запрашивал. Вы не опечатались ноликом?
Самое смешное, что мне и 100 запросов в сутки в общем-то хватит. Такая вот специфическая задача - ключей мало.
Теперь про морду. Я сначала так и делал, а потом не нашел метода отличить, например, локальную выдачу от глобальной. Они идут единым списком, оформленные одинаковыми тегами с одинаковыми атрибутами. На глаз можно отличить только по географическим данным на сайтах. Из-за чего иногда позиции снимаются некорректно. Отсюда и порывы парсить API, где можно четко указать - "дай мне глобалку".
При чем, тестировал запросы, которые вызывали у меня глюки, на публичных сервисах - и они считают правильно. Т.е. либо они сами на API сидят, либо я тупой, "либо одно из двух" (с) Шэф.
Знаю точно что AllPositions берет ТОП100 ==> они парсят точно не API, так как там можно брать масимум ТОП20. Почему точно знаю? - Потому что тестовый проект с запросами "1", "2", "3",... показал подряд идущие позиции для сайта wikipedia.org, т.е. присутсвует пресловутая группировка сайтов.
Кстати, не могу понять откуда Вы взяли параметр &near=?