Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
max-freman #:
как к такому формату привести ключи массово

Как уже говорил выше, я начинаю с формирования товарного древа.

Я обычно идут по актуальному древу и наполняю каждый уровень. Если на каком-то из уровней вижу доп. актуальную частотность для нового уровня, оцениваю насколько это актуально с точки зрения товарной группировки и ввожу новую ветку.

И ещё. Когда ты непосредственно работаешь с продвижением сайта, то моя рабочая установка - работа с семантикой не заканчивается никогда.

Поэтому не надо мучать себя перфекционизмом собрать всю вертикаль запросов. Когда например у огромного интернет-магазина сотни тысяч товаров, не нужно на старте спускаться в товарные микро частотники, пытаясь выпарсить всё. Я всегда сначала оцениваю приоритетные категории и потом оцениваю насколько рабочее древо дробиться по вероятностным семантическим нишам. Шаг за шагом осваиваю зоны семантики и только потом погружаюсь в дебри низкочастотных бездн :)

Со временем семантика всё равно будет дополняться фактическими запросами из показов запросного индекса, поэтому когда проект большой, там копать не перекопать. Главное правильно расставить приоритеты, а потом со временем детализировать нужные ветки рабочего древа.

max-freman #:
Спасибо за очень развернутый комментарий.

Пожалуйста, пожалуйста 👌


max-freman #:
Ой и вправду название неправильно написал. Надеюсь модеры поправят.

Это вряд ли.. :)


max-freman #:
Знаете как ни странно я именно такой ответ и ожидал.

Значит вы интуитивно готовы к необходимым рабочим действиям.


max-freman #:
Вы нессомненно во всем правы.

Я себя столь категорично не оцениваю :)


max-freman #:
Разумеется я смотрел Ожгибесова и много кого еще.

Уже хорошо.


max-freman #:
Вот с вложенностью ключей для парсинга у меня и есть проблема.

Так какая именно? Вам лучше детально описать контекст проблемы с рабочими данными и тогда вы скорее получите ответ по сути.


max-freman #:
Но вот как эту вложенность сделать дя 10К ключей.

Вы тогда лучше отталкивайтесь не от объёма запросов  (кстати, почему именно 10K? почему не больше или не меньше? кто вас настроил на эту цифру?) - так вот, отталкивайтесь от контекстной структуры. 

Структура сама определяет контекстные ограничения, например, возьмём фокус,

стул

- красный стул

- синий стул   

и в данном случае вы начинаете работу не с общей семантики "стул", которая напарсит вам огромное множество запросов связанных с общим запросов "стул", а начинаете с частного случая - "красный стул". Парсите всё, что касается красных стульев. Если видите дробления на более мелкие - достраиваете дочерние ветки и переходите в них.

В самом конце возвращаетесь к общему запросу и "вычитая" из перечня всё то, что вы уже обработали на дочерних ветках, смотрите что осталось.

Если нужно - достраиваете новые ветви структуры, если не нужно - отбрасываете.


max-freman #:
дя 10К ключей.

Стоп слова наверняка отсеет процентов 15-20%, дальше вы идете по отсеву группировки запросов и нередко уходит до половины объёма.

Все эти приёмы у Ожгибесова освещаются, так что объём не должен останавливать. Главное, правильно выбрать информационную область и не возиться с тем, что точно не нужно.

max-freman :
Доброго времени суток всем форумчанам.

Доброго :)


max-freman :
Являюсь не особым спецом в коллекторе.

Это заметно, начиная с неправильного указания имени программы :)


max-freman :
Возможно вопрос уже где то обсуждался,но не в гугле ни в официальной справке я толком вопрос не смог решить.

В оф. справке Гугла вы этой информации не найдете.


max-freman :
Думаю согласитесь что при составлении сем. ядра действует правило "Разделяй и влавствуй".

С последующей властью всё достаточно условно, но в целом, разобраться с разделением запросов вы рано или поздно сможете.


max-freman :
Т.е это сперва группировка запросов затем еще и автоматическая кластеризация.

Кластеризация - это и есть группировка запросов по рабочим кластерам.


max-freman :
Дабы каждый ключ находился на своем месте.

Условно - да. Но есть ещё такое явление, как меняющийся интент запроса (когда например информационный запрос становится коммерческим или наоборот) - тогда можно сказать, что его временное пребывание в том или ином кластере условно.


max-freman :
Чтобы не ругались Гугл с Яшей и приняли страничку как родную в свой топ 10 а лучше 5

Здесь надо сразу избавляться от ненужных иллюзий:

1) Яндекс и Гугл в принципе могут определять разную релевантность

2) Яндекс и Гугл между собой (в плане ранжирования) никак не связаны

3) Поисковики не ругаются, они просто ранжируют в соответствии с определённой релевантностью и особенностями работы своих алгоритмов - им всё равно

4) Правильная кластеризация и даже релевантность никак не гарантия топа


max-freman :
Ну по крайней мере я так это понимаю.

Все мы пребываем в парадигме своего понимания :)


max-freman :
Так вот если семантика небольшая до 1000 запросов сформировать группы подгруппы руководствуясь логикой проблем нет.

Ну это как сказать. Объём запросов не всегда является видимой проблемой, есть и другие не вполне явные проблемы с которыми вы наверняка столкнётесь.


max-freman :
Можно и ручками все группы настряпать. Потом снять выдачу по ТОП 10,убедится что логика правильная либо нет. Программа поможет расшвырять все по своим местам.

Если вы имеете ввиду несложность визуальной классификации, то в общем, да.


max-freman :
Я вот застрял на этапе предварительной группировки фраз для парсинга с большим проектом на 10К фраз (кто то улыбнется, ну да для меня это большой проект😀). 

Фраза составлена не совсем точно. Что вы называете группировкой, а что парсингом?

Парсинг - это автоматизированный (как правило программный) сбор ключевых запросов из рабочих источников.

А вот группировка - это объединение запросов по тем или иным критериям.

Сначала происходит парсинг, а уже потом группировка. В вашей же фразе предполагается некая группировка до начала парсинга. 


max-freman :
Насколько мне видется изначально каждая фраза должна находится в своей группе.

Каждая фраза? Опять-таки, смотря что вы называете фразой. От чего вообще отталкиваетесь на старте работ с семантикой.

Фраза - это самостоятельно законченная мысль, которая может включать в от двух до нескольких слов. Из этого следует, что однословный запрос - это не фраза, а ключевое слово. 


max-freman :
Что бы после парсинга не мучится дополнительно с группировкой и кластеризацией.

После парсинга в любом случае происходит этап группировки и кластеризации запросов. Мучится с этим или заниматься этой работой с удовлетворением - уже личный индивидуально-психологический аспект.


max-freman :
Т.е нужно так импортировать фразы для парсинга что бы они уже были в кей коллекторе в таком виде: группа>подгруппа :ключ.

Чтобы задать вложенность, вам нужно определить структуру парсинга т.е. рабочий принцип, где будут родительские и дочерние группы для формирования рабочей таксономии.


max-freman :
Есть конечно об этом в справке коллектора: импорт фраз в режиме группа ключ. Группы и подгруппы разделяются табом. Перед ключом обязательно двоеточие. Это я читал. Но если 10К фраз как их все привести к подобному формату.

Допустимо и так, но вам нужно определить рабочий принцип, иначе у вас кол-во групп будет равно кол-ву ключей.


max-freman :
Интресен опыт бывалых кто как это делает. Пока еще не созрело решение как это все в более менее автоматическом режиме сделать. Каждый раз заказывать на фрилансе результат в экселе не интересно. Хочется разобраться самостоятельно. 

Мой опыт следующий. Я всегда сначала формирую рабочую структуру (исходя из данных бизнеса), а уже потом для каждого уровня структуры формирую ядра. 

Это конечно требует определённой проф. опыта и интуиции, чтобы потом правильно дробить древо, но гарантирует то, что уже на раннем этапе ты будешь подбирать запросы под контекст сайта / бизнеса, а не наоборот, когда непосвященный в бизнес семантист начинает формировать структуру глядя на конкурентов, а потом оказывается, что у бизнеса свои особенности и много обработанной информации просто не соответствует текущим реалиям бизнеса.


max-freman :
1) Макрос в экселе который приведет все запросы в соответствие с нужной структурой (или формула?)

А анализ бизнеса и структуры сайта макрос Экселя сам выполнит? 

Любая автоматизация требует определения рабочего алгоритма, а в рабочий алгоритм должен быть заложен принцип. Пока рабочего принципа нет, сам макрос за вас эту работу не сделает.

Структуру должны определить вы. Хотя если у вас информационный сайт и материалы для сайта будут готовить не вы, то здесь - да, могут быть варианты определения структуры через проведённую кластеризацию.


max-freman :
2) Спарсить SERP  и уже на основании этих данных сделать кластеризацию.

Это и будет автоматической кластеризаций на основе данных топа.


max-freman :
Но это тоже тот еще гемор.

А лёгких путей в большом объеме данных нет. 

Даже когда вы выполните программную кластеризацию, внутри групп вам всё равно придётся заниматься обработкой данной.

В программе конечно есть инструменты для групповой обработки, но так или иначе это всё равно сортировочная работа.


max-freman :
Автоматом по плочкам он все равно не раскинет.

Автоматом выполняется автоматическая программная кластеризация.

max-freman :
Ручного труда не убавится.

Доля необходимого ручного труда всегда присутствует. Объём этого труда зависит от ваших навыков работы в программе и опыта в семантике.

Но любой опыт достигается в трудах.


max-freman :
А если запросов 100К? Это ж до седых волос можно группировать.

Хоть миллион. Как говорил один известный персонаж 😉


max-freman :
3) Группировать весь пул запросов по составу фраз. Тоже не лучший вариант как по мне. До идеала там еще очень далеко.

Выше я вам уже подсказал - сначала сформируете рабочую структуру, а потом уже для каждого уровня парсите запросы.

Продвигаясь от частного к общему, вы уже будете понимать, что вам нужно брать в рабочее СЯ, а что пропускать.


max-freman :
Буду признателен если опытные сеошники направят на путь истинный, куда копать нужно. Спасибо что дочитали эту кашу в моей голове😀.

Копайте для начала в освоении материалов по составлению семантики. 

Скачайте / купите / попросите для начала курс по семантике от Ожгибесова. Он довольно своеобразно, но в целом достаточно подробно рассказывать как работать с семантикой в Коллекторе. 


max-freman :
Всем учавствующим заранее огромное спасибо.

Пожалуйста, дерзайте 😎

peshimon :
Мы хотим ускорить сайт и убрать базовые ошибки.
По каким сервисам посоветуете это проверять? Чтобы указать программисту что поправить и на какие параметры ориентироваться?
Я так понимаю это типа pagespeed от гугла и наверное какой-то сервис СЕО аналитики?

Чтобы действительно убрать ошибки, надо полагаться не на результаты сервисов, а на экспертизу специалиста, который даст четкие инструкции и ТЗ вашему программисту.

Все сервисы лишь указывают на несоответствия тем нормам, которые сами же определяют. Многие довольно серьёзные проблемы связанные с циклической адресацией, неправильной структурой и многое другое сервисы не определяют. Приготовьтесь также к тому, что сервисы могут противоречить друг другу.

Так или иначе проблему должен видеть и интерпретировать SEO специалист, а не программист, который посмотрит в отчёт и скажет - "и чё, что мне с этим делать?" 

Из самых базовых и бесплатных:

https://be1.ru/

https://a.pr-cy.ru/

Более серьёзные и уже за денежку:

Пиксель Тулз

Мегаиндекс

Лабрика

saitreport.ru

nevinskiibomzh #:
собственно сделали все, отправили сайт на переобход, в гугл немного подросли, яндекс без изменений.

И это вполне логичный исход.

katz666 #:
просто Вы, месье, не знаете толк в извращениях

Скажем так, в принципе для вышеуказанного проекта я вполне себе представляю подобную задачу.

Организовывать техническое пространство своего сайта по своему усмотрению в принципе никто не запрещает. Я бы вполне себе рассматривал подобный вариант, если действительно в том есть рабочая надобность.

_Игорь :

Интересно услышать мнение форумчан по этому поводу. Из реальных наблюдений.

Здесь надо сказать, что все самые интересные операторы Яндекса, которыми можно было проверить разницу между ссылочной составляющей и текстовой отключены. После этого стало невозможным отделить одно от другого.

Думаю, делать какую-то значимую ставку на влияние околоссылочного окружения не нужно - это напрасная трата времени и ресурсов. 


  

Discopunk :
Скажите, пожалуйста, есть ли препятствия/особенности при продвижении доменов 4го уровня (условного вида "tula.kitchen.mebel.ru") или для поисковиков нет принципиальной разницы и подподдомены продвигаются также как и обычные сайты на домене 2го уровня.

Технически ограничений, поддомен воспринимается как самостоятельный сайт. 

Однако широкой практики сайтов на поддомене 4-го уровня я не наблюдал и не встречаю. Впрочем, никто и ничто вам не мешает пробовать.

velzeevul :
Скорость загрузки постоянно меняется, хотя изменений толком никаких не провожу. Сегодня скорость загрузки может быть 1 сек, послезавтра 3 сек, а через неделю 1.5 сек. С чем связаны такие скачки?

Зависит в том числе от того, как и чем вы тестируете загрузку. Сам запрос к серверу имеет свою маршрутиризацию, поэтому проверяя показатели даже одним и тем же внешним сервисом запросы могут быть с разных источников. 

Нагрузка на сервера хостинга также играют большую роль. На дешевых шаред хостингах отклик от сервера может довольно значимо варьироваться. 

Всего: 12685