Парсинг статистики поисковых запросов

1 234 5
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#21

О, страницу исписали, интересно, есть ли что прикладное? -)

samimages #:

В прямом. Сколько там уникальных слов? Мало вероятно что 180 000, правда? Чем их все парсить проще компилировать взяв частотность за 0, которая по факту "!" и будет ноль у ~170 000

Причем если прикинуть вероятное количество слов к длине фразы, при условии что нам известен результат в 180 000, то фраза врятли будет часто длинее 3-х слов если мы хотим получить словарь хотя бы в 100 слов, потому что словарь в 1000 слов, при прочих равных, даст 170КК фраз

Поэтому сильно похоже на то, что спарсить нужно только то что имеет хоть какую-то точную частотность и потом, составив словарь, просто скомпилировать столько фраз сколько хочется, отсеять дубли и уже после этого заниматься сбором статистики для конкретного списка.


Чем померить конверсию в КК для 180 000 фраз?
Вполне вероятно что я что-то упустил  из последних релизов этого инструмента.

Теперь возник еще один вопрос. Сколько фраз из 180 000 я не соберу в СЕРПе ТОП 30, например?

Уникальные - в смысле ПРОСТО слов или ключей? И в смысое компилировать? Обучить/рассказать/объяснить + ребёнку/детям/школьникам + N? Так и собирается основная база слов. По словам в целом, на 130000 частотных запросов - 11050 словоформ в среднем по 4 формы у каждого (классы, классу, классом, классов, классе, классах, классам, класса, класс - только использованные). Вы переборкой хотите какой результат-то получить? ) У меня задача - сделать скоринг собранного ядра на основе как раз генерации, а генерация - из конкурентов.

Второе предложение тоже навеяло на эти мысли. Повторюсь - скоринг готовых запросов, после основной чистки, но до кластеризации. 

Зачем в КК мерить конверсию? ) Речь о том, что не имея всего охвата трафика, конверсионку ты не узнаешь (например, у меня в ИМ больший % продаж приходится на страницы категории с атрибутами и, как итог, я максимально эти страницы прорабатываю далее, а не собрал бы изначально ядро и не разбил товар по 30 критериям (из семантики и конкурентов), то не получил бы этих данных и продаж. 

Про сбор с серпа, если говорить про Кейсо, то около 80% частотных запросов в Кейсо нет (после лемматизации). Такие дела. ) 

samimages #:

Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.

Кому нужна семантика без структуры и кто те же атрибуты внедряет промтами? Или в тот же контент-маркетинг.  Если говорить про еком, 80% внедряется через структуру каталога (в меньшей степени) и карточку товара (в том месте, где он складируется (б24, 1с, мой склад и т.д.) или же в Гугл таблицах. 

Антоний Казанский #:
Заработать хотят. Но у нас на корпоративным 10 плановых пользователей и на каждом плановом пользователей ещё 5 дочерних :) 

Пригласите в свою складчину? ))) Я много не ем. )

Антоний Казанский #:

Ой. Я думал, у тебя какая-то дорвейная история с такими объёмами, а тут по древу. Я обычно по древу семантику и собираю, а потом его достраиваю по необходимости. Поэтому в общей массе запросов может быть десятки тысяч, но в пошаговом исполнении это куда более посильные объёмы.

Сотни тысяч - это конечно чОкнуться можно.

К чёрту дорвеи. ) А семантику я люблю намного больше, чем именно комплексное SEO. От него я скорее чокнусь и стараюсь им вообще не заниматься. 

samimages #:

я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.

Каннибализация есть, но в формате запросов, у которых может быть разный интент по умолчанию. Как тот самый "Наполеон". В остальном всю нормально, бывают изменения, но не критичные. Опять же надо понимать, что не малая часть ключей в ТЗ уходит под жесткую лематизацию (ед. число, минус предлоги и союзы, им. род), некоторые ключи используются как общие для всего кластера (такой-то класс). Т.е. какой-то супер большой проблемы поисковик не испытывает. Да и способы борьбы с такими историями известны, если грубо говорить - howto, создание подборок с центровыми статьями/хабами контента и всё такое прочее. Не для голого Вукомерц/спама в блоге, в общем.

Антоний Казанский #:
У меня тоже возникают к бизнес модели. Наверняка можно более рационально анализировать семантику. 

Можно. Но тех, кто отрабатывает Вордстат или, в крайнем случае, только Кейсо и делает софт кластеризацию - много. ) Опять же, если под себя делать директ по такой схеме, то и пластиковые окна начинают окупаться (за счёт огромных списков минус фраз и дальнейшей доработки после кросс-аналитики). 

Крутейшая тема и конструктор на WP - https://shop.greenshiftwp.com/?from=3338
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#22
Про более рационально - большинству людей, в целом, достаточно как раз Вордстата + Вебмастера (для хоть каких-то LSI). Это, конечно, совершенно смешной объём, но для какого-нибудь контентника или ИМ без конкуренции - за глаза. 
Datot
На сайте с 09.07.2007
Online
1109
#23

И ни один суперспец не разделил лиды, траф и все что вам втирает директ, вебмастер и прочая шняга

ТС, прежде чем лезть в тему,   определитесь, вам траф нужен для заработке на рекламе или доход с продаж. Все остальное пища для флудил

Накрутка ПФ @samdatot Группа полезных сеошников https://t.me/karkali Что надо знать владельцам сайтов https://dzen.ru/tunnel.ru
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#24
Datot #:

И ни один суперспец не разделил лиды, траф и все что вам втирает директ, вебмастер и прочая шняга

ТС, прежде чем лезть в тему,   определитесь, вам траф нужен для заработке на рекламе или доход с продаж. Все остальное пища для флудил

О, а я-то думал, чем Датода прикормил. )

Надо же, оказывается лиды считать надо, тоже в это с трудом верится. )
Datot
На сайте с 09.07.2007
Online
1109
#25
Сергей про е-ком #:

О, а я-то думал, чем Датода прикормил. )

Надо же, оказывается лиды считать надо, тоже в это с трудом верится. )
Ну это ты не мне говори, :) Здесь море спецов воды полить без конкретики в современных условиях
Антоний Казанский
На сайте с 12.04.2007
Offline
746
#26
Сергей про е-ком #:
Пригласите в свою складчину? ))) Я много не ем. )

К сожалению, вряд ли получится. Только-только утрясли заботы связанные с перерасходом лимитов от особо затейливых старателей.

Я сам за то, что платить больше и уменьшить кол-во, но организатор не я.

Я прошу прощения, что как-то так рассказал про возможности, а взять к себе не могу, потому что организатор складчины не я и я сам ждал места 2 месяца. 

Но дают ориентир, что такие варианты возможны, если нацеленно искать и ждать.


Сергей про е-ком #:
К чёрту дорвеи. ) А семантику я люблю намного больше, чем именно комплексное SEO. От него я скорее чокнусь и стараюсь им вообще не заниматься. 

Ой, а я нет. Ну 2-3 часа на семантику не больше. Дальше я начинаю выгорать.

Мне больше по душе аналитика, точки роста, гипотезы, внедрения, анализ и аналитика UX/UI, креативы, запросная и продуктовая аналитика, прототипирование, формирование оффера,  коллективные брифинги - этой прям драйвит.

А списки запросов лопатить, всё-таки дозированно. Cкажем так, 10K сырых запросов по группам за день раскидаю, больше уже начинает сильно удручать. 

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#27
Антоний Казанский #:

Ой, а я нет. Ну 2-3 часа на семантику не больше. Дальше я начинаю выгорать.

Мне больше по душе аналитика, точки роста, гипотезы, внедрения, анализ и аналитика UX/UI, креативы, запросная и продуктовая аналитика, прототипирование, формирование оффера,  коллективные брифинги - этой прям драйвит.

А списки запросов лопатить, всё-таки дозированно. Cкажем так, 10K сырых запросов по группам за день раскидаю, больше уже начинает сильно удручать. 

Я этим и занимаюсь на основе семантики. Сейчас именно в формате структурирования и onpage (конверсия и ФО для дизайнеров по прототипированию), системы фильтрации + автоматизация процессов (торговые матрицы, работа с интеграциями склада) + расширение ассортимента. 

Антоний Казанский
На сайте с 12.04.2007
Offline
746
#28
Сергей про е-ком #:
Я этим и занимаюсь на основе семантики. Сейчас именно в формате структурирования и onpage (конверсия и ФО для дизайнеров по прототипированию), системы фильтрации + автоматизация процессов (торговые матрицы, работа с интеграциями склада) + расширение ассортимента. 

Тогда, прости, я не понимаю, как сверх всего этого ты перевариваешь 100K ядра. Это нереально.

Сергей про е-ком
На сайте с 11.05.2008
Offline
288
#29
Антоний Казанский #:

Тогда, прости, я не понимаю, как сверх всего этого ты перевариваешь 100K ядра. Это нереально.

Места знать надо. ) Но тут ответ довольно простой. 100к - это истории про фильтрации, я их сразу прорабатываю в формат прототипирования и выгружаю в таблицы с готовым ТЗ, где одинаковые свойства разных товаров на одном уровне. 

Как итог, получаются такие структуры:

в готовом виде. Со словарём склонений, родов и падежей для генерации тайтлов и шортов.

Ну или такие в виде семантики:

Но это прям очень простая история с чётким гео и без конкретного интента, только по Бутово (1500 частотных запросов, 32 страницы на 8 услуг). 

Антоний Казанский
На сайте с 12.04.2007
Offline
746
#30
Сергей про е-ком #:
Места знать надо. ) Но тут ответ довольно простой. 100к - это истории про фильтрации, я их сразу прорабатываю в формат прототипирования и выгружаю в таблицы с готовым ТЗ, где одинаковые свойства разных товаров на одном уровне. 

Ну в целом привычный ассортимент с признаками. Откуда там 100K ядра? Не должно быть там такого количества рабочих запросов, если конечно ты принудительно не перемножаешь всё со всем в режиме жадной комбинаторики + умножая на все возможные склонения и спряжения :)

Раздуть перечень, чтобы потом отсеять 90% сгенерированных вариаций? Или откуда там набирается такое кол-во?

Отсев неявных дублей происходит?


Если начать отсеивать по частотке, я думаю в отдельных группах товаров сразу будет понятно, по каким признакам есть резон проводить проверки, а по каким нет.

1 234 5

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий