Парсинг статистики поисковых запросов

Антоний Казанский
На сайте с 12.04.2007
Online
746
#11
Сергей про е-ком #:
Кейсо есть.

Тогда оттуда и тянуть, я не думаю, что где-то значимо будет дешевле.

Можно конечно попытать счастья на кворке (если кто-то подобным специально занимается), но вряд ли, слишком узкоспециализированная задача.


Сергей про е-ком #:
Структурировать в Кейсо, кстати, совсем неудобно. )

Структурировать там и не надо :)


Сергей про е-ком #:
На такой объём можно и в ПТ (500к+ запросов за 23к). Но, опять же...

Если в складчину брать, то соответственно будет дешевле.


Сергей про е-ком #:
Я так понял, сам инструмент Вордстат API они ещё не подключили?

Подключили.


Сергей про е-ком #:
В смысле? Вот сейчас семантика для крупной школы в работе, детское развитие и начальное образование, только с префиксом проблемы - 180000 частотных запросов без неявных дублей. ) При том если бить их контент-маркетинг по готовым кластерам, сразу видно, что недоработанные в ширину куски ранжируются значительно хуже. По каким-нибудь кунгам запросов 10000... ) Какая-нибудь микросфера в ортопедии - 5к запросов релевантных.

А кто ж такой объём запросов лопатить будет?

Это до пенсии :)

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#12
Антоний Казанский #:
Если в складчину брать, то соответственно будет дешевле.

Да я его сам вырабатываю. Там лимиты отдельные. ) Т.е. все услуги - n-лимитов. Тариф - количество лимитов. 

Антоний Казанский #:
Подключили.
А чего они тогда с ценами так выёживаются? ) Дали бы 300к/день - месячный безлимит. Им-то что. ) Я б взял. 
Антоний Казанский #:
А кто ж такой объём запросов лопатить будет?

Да нет, неделя. С древовидным структурированием. Ещё неделя - не маркерный LSI. То, что до пенсии, отправляю в Семантист. ))) 

Крутейшая тема и конструктор на WP - https://shop.greenshiftwp.com/?from=3338
Datot
На сайте с 09.07.2007
Online
1109
#13
Антоний Казанский #:

Я уже давно не вижу на форуме SEO-шников, которые бы серьёзно занимались запросной аналитикой и работали с большими объёмами.

Я таких не вижу уже года 5-7. Как я остались единицы

Накрутка ПФ @samdatot Группа полезных сеошников https://t.me/karkali Что надо знать владельцам сайтов https://dzen.ru/tunnel.ru
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#14
Datot #:

Я таких не вижу уже года 5-7. Как я остались единицы

Думал, единицы - это те, кто не крутит ПФ бездумно и в постах бывает хоть какая-то конкретика. Как же я ошибался 😀 

samimages
На сайте с 31.05.2009
Offline
427
#15
Сергей про е-ком #:
В смысле? Вот сейчас семантика для крупной школы в работе, детское развитие и начальное образование, только с префиксом проблемы - 180000 частотных запросов без неявных дублей. )

В прямом. Сколько там уникальных слов? Мало вероятно что 180 000, правда? Чем их все парсить проще компилировать взяв частотность за 0, которая по факту "!" и будет ноль у ~170 000

Причем если прикинуть вероятное количество слов к длине фразы, при условии что нам известен результат в 180 000, то фраза врятли будет часто длинее 3-х слов если мы хотим получить словарь хотя бы в 100 слов, потому что словарь в 1000 слов, при прочих равных, даст 170КК фраз

Поэтому сильно похоже на то, что спарсить нужно только то что имеет хоть какую-то точную частотность и потом, составив словарь, просто скомпилировать столько фраз сколько хочется, отсеять дубли и уже после этого заниматься сбором статистики для конкретного списка.


Сергей про е-ком #:
И, как заметил Антоний, конверсии у запросов абсолютно разные

Чем померить конверсию в КК для 180 000 фраз?
Вполне вероятно что я что-то упустил  из последних релизов этого инструмента.

Теперь возник еще один вопрос. Сколько фраз из 180 000 я не соберу в СЕРПе ТОП 30, например?

Опыт как иммунитет — приобретается в муках! Аудит семантики от 15К [долго] - ЛС
samimages
На сайте с 31.05.2009
Offline
427
#16
Антоний Казанский #:
А кто ж такой объём запросов лопатить будет?

Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.

Антоний Казанский
На сайте с 12.04.2007
Online
746
#17
Сергей про е-ком #:
Да я его сам вырабатываю. Там лимиты отдельные. ) Т.е. все услуги - n-лимитов. Тариф - количество лимитов. 

Так дело в том, что в базовом тарифе существенно дороже получается (как минимум раз в шесть).


Сергей про е-ком #:
А чего они тогда с ценами так выёживаются? )

Заработать хотят. Но у нас на корпоративным 10 плановых пользователей и на каждом плановом пользователей ещё 5 дочерних :) 


Сергей про е-ком #:
Да нет, неделя. С древовидным структурированием. Ещё неделя - не маркерный LSI. То, что до пенсии, отправляю в Семантист. ))) 

Ой. Я думал, у тебя какая-то дорвейная история с такими объёмами, а тут по древу. Я обычно по древу семантику и собираю, а потом его достраиваю по необходимости. Поэтому в общей массе запросов может быть десятки тысяч, но в пошаговом исполнении это куда более посильные объёмы.

Сотни тысяч - это конечно чОкнуться можно.

Антоний Казанский
На сайте с 12.04.2007
Online
746
#18
samimages #:
Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.

Под "лопатить" я имел ввиду доводить до целевых ядер и их посадочных с последующим внедрением на офферы. Если работать по интенам, то там нет таких колоссальных объёмов. А вот история разношерстную мешанину в тему и не в тему поубить на кластеры - это тут большой вопрос к специализации.

Для дорвеев, где страницы и их бредосодержание генерируется налету - это одна история, раскачка семантики для контентного проекта (где что найдем, о том и напишем) - другая история, для коммерции - там по структуре, по категориям, товарам/услугам и их интентам. 

 

samimages
На сайте с 31.05.2009
Offline
427
#19
Антоний Казанский #:

Под "лопатить" я имел ввиду доводить до целевых ядер и их посадочных с последующим внедрением на офферы. Если работать по интенам, то там нет таких колоссальных объёмов. ...

я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.

Антоний Казанский
На сайте с 12.04.2007
Online
746
#20
samimages #:
я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.

У меня тоже возникают к бизнес модели. Наверняка можно более рационально анализировать семантику. 

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий