Массовая группировка запросов для парсинга в Key Kollector 4

MF
На сайте с 14.03.2016
Offline
66
657

Доброго времени суток всем форумчанам.

Являюсь не особым спецом в коллекторе. Возможно вопрос уже где то обсуждался,но не в гугле ни в официальной справке я толком вопрос не смог решить.

Думаю согласитесь что при составлении сем. ядра действует правило "Разделяй и властвуй". Т.е это сперва группировка запросов затем еще и автоматическая кластеризация. Дабы каждый ключ находился на своем месте. Чтобы не ругались Гугл с Яшей и приняли страничку как родную в свой топ 10 а лучше 5 😀 . Ну по крайней мере я так это понимаю. Разумеется это не единственное условие, но вернемся к теме.

Так вот если семантика небольшая до 1000 запросов сформировать группы подгруппы руководствуясь логикой проблем нет. Можно и ручками все группы настряпать. Потом снять выдачу по ТОП 10,убедится что логика правильная либо нет. Программа поможет расшвырять все по своим местам.

Я вот застрял на этапе предварительной группировки фраз для парсинга с большим проектом на 10К фраз (кто то улыбнется, ну да для меня это большой проект😀). 

Насколько мне видется изначально каждая фраза должна находится в своей группе. Что бы после парсинга не мучится дополнительно с группировкой и кластеризацией. Т.е нужно так импортировать фразы для парсинга что бы они уже были в кей коллекторе в таком виде: группа>подгруппа :ключ.

Есть конечно об этом в справке коллектора: импорт фраз в режиме группа ключ. Группы и подгруппы разделяются табом. Перед ключом обязательно двоеточие. Это я читал. Но если 10К фраз как их все привести к подобному формату.

Интресен опыт бывалых кто как это делает. Пока еще не созрело решение как это все в более менее автоматическом режиме сделать. Каждый раз заказывать на фрилансе результат в экселе не интересно. Хочется разобраться самостоятельно. 

Вижу такие варианты не уверен правильные или нет :

1) Макрос в экселе который приведет все запросы в соответствие с нужной структурой (или формула?)

2) Спарсить SERP  и уже на основании этих данных сделать кластеризацию. Но это тоже тот еще гемор. Автоматом по плочкам он все равно не раскинет. Ручного труда не убавится. А если запросов 100К? Это ж до седых волос можно группировать.

3) Группировать весь пул запросов по составу фраз. Тоже не лучший вариант как по мне. До идеала там еще очень далеко.

Больше пока не могу дотумкать как еще можно. Да и все эти варианты трудоемки. Кроме макроса наверное. Буду признателен если опытные сеошники направят на путь истинный, куда копать нужно. Спасибо что дочитали эту кашу в моей голове😀.

Всем учавствующим заранее огромное спасибо.

Антоний Казанский
На сайте с 12.04.2007
Offline
732
#1
max-freman :
Доброго времени суток всем форумчанам.

Доброго :)


max-freman :
Являюсь не особым спецом в коллекторе.

Это заметно, начиная с неправильного указания имени программы :)


max-freman :
Возможно вопрос уже где то обсуждался,но не в гугле ни в официальной справке я толком вопрос не смог решить.

В оф. справке Гугла вы этой информации не найдете.


max-freman :
Думаю согласитесь что при составлении сем. ядра действует правило "Разделяй и влавствуй".

С последующей властью всё достаточно условно, но в целом, разобраться с разделением запросов вы рано или поздно сможете.


max-freman :
Т.е это сперва группировка запросов затем еще и автоматическая кластеризация.

Кластеризация - это и есть группировка запросов по рабочим кластерам.


max-freman :
Дабы каждый ключ находился на своем месте.

Условно - да. Но есть ещё такое явление, как меняющийся интент запроса (когда например информационный запрос становится коммерческим или наоборот) - тогда можно сказать, что его временное пребывание в том или ином кластере условно.


max-freman :
Чтобы не ругались Гугл с Яшей и приняли страничку как родную в свой топ 10 а лучше 5

Здесь надо сразу избавляться от ненужных иллюзий:

1) Яндекс и Гугл в принципе могут определять разную релевантность

2) Яндекс и Гугл между собой (в плане ранжирования) никак не связаны

3) Поисковики не ругаются, они просто ранжируют в соответствии с определённой релевантностью и особенностями работы своих алгоритмов - им всё равно

4) Правильная кластеризация и даже релевантность никак не гарантия топа


max-freman :
Ну по крайней мере я так это понимаю.

Все мы пребываем в парадигме своего понимания :)


max-freman :
Так вот если семантика небольшая до 1000 запросов сформировать группы подгруппы руководствуясь логикой проблем нет.

Ну это как сказать. Объём запросов не всегда является видимой проблемой, есть и другие не вполне явные проблемы с которыми вы наверняка столкнётесь.


max-freman :
Можно и ручками все группы настряпать. Потом снять выдачу по ТОП 10,убедится что логика правильная либо нет. Программа поможет расшвырять все по своим местам.

Если вы имеете ввиду несложность визуальной классификации, то в общем, да.


max-freman :
Я вот застрял на этапе предварительной группировки фраз для парсинга с большим проектом на 10К фраз (кто то улыбнется, ну да для меня это большой проект😀). 

Фраза составлена не совсем точно. Что вы называете группировкой, а что парсингом?

Парсинг - это автоматизированный (как правило программный) сбор ключевых запросов из рабочих источников.

А вот группировка - это объединение запросов по тем или иным критериям.

Сначала происходит парсинг, а уже потом группировка. В вашей же фразе предполагается некая группировка до начала парсинга. 


max-freman :
Насколько мне видется изначально каждая фраза должна находится в своей группе.

Каждая фраза? Опять-таки, смотря что вы называете фразой. От чего вообще отталкиваетесь на старте работ с семантикой.

Фраза - это самостоятельно законченная мысль, которая может включать в от двух до нескольких слов. Из этого следует, что однословный запрос - это не фраза, а ключевое слово. 


max-freman :
Что бы после парсинга не мучится дополнительно с группировкой и кластеризацией.

После парсинга в любом случае происходит этап группировки и кластеризации запросов. Мучится с этим или заниматься этой работой с удовлетворением - уже личный индивидуально-психологический аспект.


max-freman :
Т.е нужно так импортировать фразы для парсинга что бы они уже были в кей коллекторе в таком виде: группа>подгруппа :ключ.

Чтобы задать вложенность, вам нужно определить структуру парсинга т.е. рабочий принцип, где будут родительские и дочерние группы для формирования рабочей таксономии.


max-freman :
Есть конечно об этом в справке коллектора: импорт фраз в режиме группа ключ. Группы и подгруппы разделяются табом. Перед ключом обязательно двоеточие. Это я читал. Но если 10К фраз как их все привести к подобному формату.

Допустимо и так, но вам нужно определить рабочий принцип, иначе у вас кол-во групп будет равно кол-ву ключей.


max-freman :
Интресен опыт бывалых кто как это делает. Пока еще не созрело решение как это все в более менее автоматическом режиме сделать. Каждый раз заказывать на фрилансе результат в экселе не интересно. Хочется разобраться самостоятельно. 

Мой опыт следующий. Я всегда сначала формирую рабочую структуру (исходя из данных бизнеса), а уже потом для каждого уровня структуры формирую ядра. 

Это конечно требует определённой проф. опыта и интуиции, чтобы потом правильно дробить древо, но гарантирует то, что уже на раннем этапе ты будешь подбирать запросы под контекст сайта / бизнеса, а не наоборот, когда непосвященный в бизнес семантист начинает формировать структуру глядя на конкурентов, а потом оказывается, что у бизнеса свои особенности и много обработанной информации просто не соответствует текущим реалиям бизнеса.


max-freman :
1) Макрос в экселе который приведет все запросы в соответствие с нужной структурой (или формула?)

А анализ бизнеса и структуры сайта макрос Экселя сам выполнит? 

Любая автоматизация требует определения рабочего алгоритма, а в рабочий алгоритм должен быть заложен принцип. Пока рабочего принципа нет, сам макрос за вас эту работу не сделает.

Структуру должны определить вы. Хотя если у вас информационный сайт и материалы для сайта будут готовить не вы, то здесь - да, могут быть варианты определения структуры через проведённую кластеризацию.


max-freman :
2) Спарсить SERP  и уже на основании этих данных сделать кластеризацию.

Это и будет автоматической кластеризаций на основе данных топа.


max-freman :
Но это тоже тот еще гемор.

А лёгких путей в большом объеме данных нет. 

Даже когда вы выполните программную кластеризацию, внутри групп вам всё равно придётся заниматься обработкой данной.

В программе конечно есть инструменты для групповой обработки, но так или иначе это всё равно сортировочная работа.


max-freman :
Автоматом по плочкам он все равно не раскинет.

Автоматом выполняется автоматическая программная кластеризация.

max-freman :
Ручного труда не убавится.

Доля необходимого ручного труда всегда присутствует. Объём этого труда зависит от ваших навыков работы в программе и опыта в семантике.

Но любой опыт достигается в трудах.


max-freman :
А если запросов 100К? Это ж до седых волос можно группировать.

Хоть миллион. Как говорил один известный персонаж 😉


max-freman :
3) Группировать весь пул запросов по составу фраз. Тоже не лучший вариант как по мне. До идеала там еще очень далеко.

Выше я вам уже подсказал - сначала сформируете рабочую структуру, а потом уже для каждого уровня парсите запросы.

Продвигаясь от частного к общему, вы уже будете понимать, что вам нужно брать в рабочее СЯ, а что пропускать.


max-freman :
Буду признателен если опытные сеошники направят на путь истинный, куда копать нужно. Спасибо что дочитали эту кашу в моей голове😀.

Копайте для начала в освоении материалов по составлению семантики. 

Скачайте / купите / попросите для начала курс по семантике от Ожгибесова. Он довольно своеобразно, но в целом достаточно подробно рассказывать как работать с семантикой в Коллекторе. 


max-freman :
Всем учавствующим заранее огромное спасибо.

Пожалуйста, дерзайте 😎

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
MF
На сайте с 14.03.2016
Offline
66
#2

Спасибо за очень развернутый комментарий.

Ой и вправду название неправильно написал. Надеюсь модеры поправят.

Знаете как ни странно я именно такой ответ и ожидал. Вы нессомненно во всем правы. Разумеется я смотрел Ожгибесова и много кого еще. Конечно понимаю что от ручного труда не уйти. Мне в принципе это нравится.  Понятно что нужно знать суть бизнеса или сайта что бы собирать семантическое ядро.

Вот с вложенностью ключей для парсинга у меня и есть проблема. Я со своей стороны вроде понимаю что где должно быть. Но вот как эту вложенность сделать дя 10К ключей.

Антоний Казанский
На сайте с 12.04.2007
Offline
732
#3
max-freman #:
Спасибо за очень развернутый комментарий.

Пожалуйста, пожалуйста 👌


max-freman #:
Ой и вправду название неправильно написал. Надеюсь модеры поправят.

Это вряд ли.. :)


max-freman #:
Знаете как ни странно я именно такой ответ и ожидал.

Значит вы интуитивно готовы к необходимым рабочим действиям.


max-freman #:
Вы нессомненно во всем правы.

Я себя столь категорично не оцениваю :)


max-freman #:
Разумеется я смотрел Ожгибесова и много кого еще.

Уже хорошо.


max-freman #:
Вот с вложенностью ключей для парсинга у меня и есть проблема.

Так какая именно? Вам лучше детально описать контекст проблемы с рабочими данными и тогда вы скорее получите ответ по сути.


max-freman #:
Но вот как эту вложенность сделать дя 10К ключей.

Вы тогда лучше отталкивайтесь не от объёма запросов  (кстати, почему именно 10K? почему не больше или не меньше? кто вас настроил на эту цифру?) - так вот, отталкивайтесь от контекстной структуры. 

Структура сама определяет контекстные ограничения, например, возьмём фокус,

стул

- красный стул

- синий стул   

и в данном случае вы начинаете работу не с общей семантики "стул", которая напарсит вам огромное множество запросов связанных с общим запросов "стул", а начинаете с частного случая - "красный стул". Парсите всё, что касается красных стульев. Если видите дробления на более мелкие - достраиваете дочерние ветки и переходите в них.

В самом конце возвращаетесь к общему запросу и "вычитая" из перечня всё то, что вы уже обработали на дочерних ветках, смотрите что осталось.

Если нужно - достраиваете новые ветви структуры, если не нужно - отбрасываете.


max-freman #:
дя 10К ключей.

Стоп слова наверняка отсеет процентов 15-20%, дальше вы идете по отсеву группировки запросов и нередко уходит до половины объёма.

Все эти приёмы у Ожгибесова освещаются, так что объём не должен останавливать. Главное, правильно выбрать информационную область и не возиться с тем, что точно не нужно.

Антоний Казанский
На сайте с 12.04.2007
Offline
732
#4

И ещё. Когда ты непосредственно работаешь с продвижением сайта, то моя рабочая установка - работа с семантикой не заканчивается никогда.

Поэтому не надо мучать себя перфекционизмом собрать всю вертикаль запросов. Когда например у огромного интернет-магазина сотни тысяч товаров, не нужно на старте спускаться в товарные микро частотники, пытаясь выпарсить всё. Я всегда сначала оцениваю приоритетные категории и потом оцениваю насколько рабочее древо дробиться по вероятностным семантическим нишам. Шаг за шагом осваиваю зоны семантики и только потом погружаюсь в дебри низкочастотных бездн :)

Со временем семантика всё равно будет дополняться фактическими запросами из показов запросного индекса, поэтому когда проект большой, там копать не перекопать. Главное правильно расставить приоритеты, а потом со временем детализировать нужные ветки рабочего древа.

MF
На сайте с 14.03.2016
Offline
66
#5

Да я понимаю что идем от частностей к общему. Сперва широкие маски (ключи) парсим. Потом что осталось по узким. Иначе будет не айс. Меня не пугает сам обьем ключей. Наооборот воодушевляет.

Поясню суть вопроса. Есть формат Key Collector для импорта вложенности категорий ключей.

вложенность запросов Key Collector

Вот и чисто технически не пойму как к такому формату привести ключи массово. Ключи перемножаю, получается список на 10К запросов. И нужно как то каждую группу подгруппу вывести в таком формате и импортировать в КК.

Антоний Казанский
На сайте с 12.04.2007
Offline
732
#6
max-freman #:
как к такому формату привести ключи массово

Как уже говорил выше, я начинаю с формирования товарного древа.

Я обычно идут по актуальному древу и наполняю каждый уровень. Если на каком-то из уровней вижу доп. актуальную частотность для нового уровня, оцениваю насколько это актуально с точки зрения товарной группировки и ввожу новую ветку.

Lazy Badger
На сайте с 14.06.2017
Offline
228
#7
Антоний Казанский #:
Как уже говорил выше, я начинаю с формирования товарного древа

А потом прилетает грязная вонючая жопа в "молочка обизжиреная"

Это не критика методологии, конечно

Влет, кроме мультикатегорийных запросов, вижу еще проблему необнаружимости фильтров при товарной таксономии 

Производство жести методом непрерывного отжига
MF
На сайте с 14.03.2016
Offline
66
#8

Спасибо всем за участие. Вижу что палится  ни кто не хочет.  Вроде обозначил вполне конкретно задачу. Оказался др...ом. Ок отпишусь как найду оптимальный вариант. Думаю отличная тема для прям статьи на сайте,дерзайте! Запрос то есть. А оптимального решения нет. Лишь для тех кто озадачился так же заморочится: Вижу вариант либо средствами КК, но это не самый технологичный варик, либо какой то макрос заказать. 

kysok sabaki
На сайте с 27.02.2008
Offline
200
#9
max-freman #:

Вижу что палится ни кто не хочет.

Так нету тут никакого палева как и волшебной кнопки "бабло" - нажал и всё готово. Всё только головой: анализ конкурентов из топа - структуры, фильтров, информационки.

Потом что насобирал -> в КК и дособирывай фразы и частоты.

Потом к тому что обязательно должно быть на сайте добавляй то в чём топы не в топе.


max-freman #:

Запрос то есть. А оптимального решения нет.

Да хорош. Всё есть - и статейки и видосы и цельные курсы. Вот чего нет так это гарантий что всё получится )


max-freman #:

..либо средствами КК.. либо какой то макрос заказать..

Купи компетенцию (консультацию) и точно узнай что есть, а чего нет. Купи методы аналитики.

Антоний Казанский
На сайте с 12.04.2007
Offline
732
#10
Lazy Badger #:
А потом прилетает грязная вонючая жопа в "молочка обизжиреная"

В этом случае  запрос вполне резонно уходит в раздел информационных статей.


Lazy Badger #:

А потом прилетает грязная вонючая жопа в "молочка обизжиреная"

Это не критика методологии, конечно

Влет, кроме мультикатегорийных запросов, вижу еще проблему необнаружимости фильтров при товарной таксономии 

Согласен, замечание резонное и мультикатегорийные запросы действительно встречаются, но такие запросы выявляются при любом подходе.

Практически всегда проблему можно разрулить, а то что прям совсем "невпихуемое" - я отбрасываю по принципу - убирая меньшее, ради большего.


max-freman #:
Вроде обозначил вполне конкретно задачу. Оказался др...ом.

Корректное определение задачи - уже 30% рабочего решения. Вы дали фрагмент и по нему уже множество вопросов в отношении рабочего ассортимента, поэтому перед тем как формировать группы у вас должно быть умозрительное представление о построении рабочего древа. 

Фактически - это навык декомпозирования и это умение нужно тренировать, потому как в общем-то один из самых важных и для сеошника, и для программиста.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий