Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Елена П. :
Если вывести все определения на отдельную страницу ( страницы ) и отправлять посетителя на их просмотр, мне показалось не слишком удобным для чтения

Выводите не на отдельную страницу, выводите в модальное окно.

boobi #:

Если бы это действительно было так, то безопаснее всего было бы накручивать конкурентов, что бы Яша их фильтровал.  

А вы попробуйте посчитать сколько это будет стоить, чтобы расчистить всех, кто стоит выше :)

Кроме того, фильтруются как правило скороспелки, которые быстро залетают в топ, а крупным трастовым сайтам вы накруткой навредить не сможете, её эффект будет нивелироваться. 

Ни один вменяемый заказчик не будет тратиться на идею - "а давайте будем накручивать всех остальных конкурентов, чтобы Яндекс их понизил".

igorbell #:
Все верно, неправильная разметка страницы - на сайте на всех страницах есть одинаковые h1, h2, h3 которые есть в хедере сайта, и еще h1, h2 есть в самом шаблоне каждой из страниц - т.е. получаются дубли.

В этом случае лучше переделать шаблон и вручную исправить дубли.


igorbell #:
Спасибо большое, помогло!

Пожалуйста. 

igorbell :
Есть часть кода на сайте, который нужно скрыть от индексации (в которых дубли h1, h2, h3)

Довольно странная задача. Скорее всего проблема, либо в неправильной разметке страницы, либо в вашем индивидуальном восприятии дублей, которые на самом деле и не создают никаких значимых проблем.

Чтобы скрыть от индексации текст для Гугла можно зашифровать его через JS

Lazy Badger #:
А потом прилетает грязная вонючая жопа в "молочка обизжиреная"

В этом случае  запрос вполне резонно уходит в раздел информационных статей.


Lazy Badger #:

А потом прилетает грязная вонючая жопа в "молочка обизжиреная"

Это не критика методологии, конечно

Влет, кроме мультикатегорийных запросов, вижу еще проблему необнаружимости фильтров при товарной таксономии 

Согласен, замечание резонное и мультикатегорийные запросы действительно встречаются, но такие запросы выявляются при любом подходе.

Практически всегда проблему можно разрулить, а то что прям совсем "невпихуемое" - я отбрасываю по принципу - убирая меньшее, ради большего.


max-freman #:
Вроде обозначил вполне конкретно задачу. Оказался др...ом.

Корректное определение задачи - уже 30% рабочего решения. Вы дали фрагмент и по нему уже множество вопросов в отношении рабочего ассортимента, поэтому перед тем как формировать группы у вас должно быть умозрительное представление о построении рабочего древа. 

Фактически - это навык декомпозирования и это умение нужно тренировать, потому как в общем-то один из самых важных и для сеошника, и для программиста.

max-freman #:
как к такому формату привести ключи массово

Как уже говорил выше, я начинаю с формирования товарного древа.

Я обычно идут по актуальному древу и наполняю каждый уровень. Если на каком-то из уровней вижу доп. актуальную частотность для нового уровня, оцениваю насколько это актуально с точки зрения товарной группировки и ввожу новую ветку.

И ещё. Когда ты непосредственно работаешь с продвижением сайта, то моя рабочая установка - работа с семантикой не заканчивается никогда.

Поэтому не надо мучать себя перфекционизмом собрать всю вертикаль запросов. Когда например у огромного интернет-магазина сотни тысяч товаров, не нужно на старте спускаться в товарные микро частотники, пытаясь выпарсить всё. Я всегда сначала оцениваю приоритетные категории и потом оцениваю насколько рабочее древо дробиться по вероятностным семантическим нишам. Шаг за шагом осваиваю зоны семантики и только потом погружаюсь в дебри низкочастотных бездн :)

Со временем семантика всё равно будет дополняться фактическими запросами из показов запросного индекса, поэтому когда проект большой, там копать не перекопать. Главное правильно расставить приоритеты, а потом со временем детализировать нужные ветки рабочего древа.

max-freman #:
Спасибо за очень развернутый комментарий.

Пожалуйста, пожалуйста 👌


max-freman #:
Ой и вправду название неправильно написал. Надеюсь модеры поправят.

Это вряд ли.. :)


max-freman #:
Знаете как ни странно я именно такой ответ и ожидал.

Значит вы интуитивно готовы к необходимым рабочим действиям.


max-freman #:
Вы нессомненно во всем правы.

Я себя столь категорично не оцениваю :)


max-freman #:
Разумеется я смотрел Ожгибесова и много кого еще.

Уже хорошо.


max-freman #:
Вот с вложенностью ключей для парсинга у меня и есть проблема.

Так какая именно? Вам лучше детально описать контекст проблемы с рабочими данными и тогда вы скорее получите ответ по сути.


max-freman #:
Но вот как эту вложенность сделать дя 10К ключей.

Вы тогда лучше отталкивайтесь не от объёма запросов  (кстати, почему именно 10K? почему не больше или не меньше? кто вас настроил на эту цифру?) - так вот, отталкивайтесь от контекстной структуры. 

Структура сама определяет контекстные ограничения, например, возьмём фокус,

стул

- красный стул

- синий стул   

и в данном случае вы начинаете работу не с общей семантики "стул", которая напарсит вам огромное множество запросов связанных с общим запросов "стул", а начинаете с частного случая - "красный стул". Парсите всё, что касается красных стульев. Если видите дробления на более мелкие - достраиваете дочерние ветки и переходите в них.

В самом конце возвращаетесь к общему запросу и "вычитая" из перечня всё то, что вы уже обработали на дочерних ветках, смотрите что осталось.

Если нужно - достраиваете новые ветви структуры, если не нужно - отбрасываете.


max-freman #:
дя 10К ключей.

Стоп слова наверняка отсеет процентов 15-20%, дальше вы идете по отсеву группировки запросов и нередко уходит до половины объёма.

Все эти приёмы у Ожгибесова освещаются, так что объём не должен останавливать. Главное, правильно выбрать информационную область и не возиться с тем, что точно не нужно.

max-freman :
Доброго времени суток всем форумчанам.

Доброго :)


max-freman :
Являюсь не особым спецом в коллекторе.

Это заметно, начиная с неправильного указания имени программы :)


max-freman :
Возможно вопрос уже где то обсуждался,но не в гугле ни в официальной справке я толком вопрос не смог решить.

В оф. справке Гугла вы этой информации не найдете.


max-freman :
Думаю согласитесь что при составлении сем. ядра действует правило "Разделяй и влавствуй".

С последующей властью всё достаточно условно, но в целом, разобраться с разделением запросов вы рано или поздно сможете.


max-freman :
Т.е это сперва группировка запросов затем еще и автоматическая кластеризация.

Кластеризация - это и есть группировка запросов по рабочим кластерам.


max-freman :
Дабы каждый ключ находился на своем месте.

Условно - да. Но есть ещё такое явление, как меняющийся интент запроса (когда например информационный запрос становится коммерческим или наоборот) - тогда можно сказать, что его временное пребывание в том или ином кластере условно.


max-freman :
Чтобы не ругались Гугл с Яшей и приняли страничку как родную в свой топ 10 а лучше 5

Здесь надо сразу избавляться от ненужных иллюзий:

1) Яндекс и Гугл в принципе могут определять разную релевантность

2) Яндекс и Гугл между собой (в плане ранжирования) никак не связаны

3) Поисковики не ругаются, они просто ранжируют в соответствии с определённой релевантностью и особенностями работы своих алгоритмов - им всё равно

4) Правильная кластеризация и даже релевантность никак не гарантия топа


max-freman :
Ну по крайней мере я так это понимаю.

Все мы пребываем в парадигме своего понимания :)


max-freman :
Так вот если семантика небольшая до 1000 запросов сформировать группы подгруппы руководствуясь логикой проблем нет.

Ну это как сказать. Объём запросов не всегда является видимой проблемой, есть и другие не вполне явные проблемы с которыми вы наверняка столкнётесь.


max-freman :
Можно и ручками все группы настряпать. Потом снять выдачу по ТОП 10,убедится что логика правильная либо нет. Программа поможет расшвырять все по своим местам.

Если вы имеете ввиду несложность визуальной классификации, то в общем, да.


max-freman :
Я вот застрял на этапе предварительной группировки фраз для парсинга с большим проектом на 10К фраз (кто то улыбнется, ну да для меня это большой проект😀). 

Фраза составлена не совсем точно. Что вы называете группировкой, а что парсингом?

Парсинг - это автоматизированный (как правило программный) сбор ключевых запросов из рабочих источников.

А вот группировка - это объединение запросов по тем или иным критериям.

Сначала происходит парсинг, а уже потом группировка. В вашей же фразе предполагается некая группировка до начала парсинга. 


max-freman :
Насколько мне видется изначально каждая фраза должна находится в своей группе.

Каждая фраза? Опять-таки, смотря что вы называете фразой. От чего вообще отталкиваетесь на старте работ с семантикой.

Фраза - это самостоятельно законченная мысль, которая может включать в от двух до нескольких слов. Из этого следует, что однословный запрос - это не фраза, а ключевое слово. 


max-freman :
Что бы после парсинга не мучится дополнительно с группировкой и кластеризацией.

После парсинга в любом случае происходит этап группировки и кластеризации запросов. Мучится с этим или заниматься этой работой с удовлетворением - уже личный индивидуально-психологический аспект.


max-freman :
Т.е нужно так импортировать фразы для парсинга что бы они уже были в кей коллекторе в таком виде: группа>подгруппа :ключ.

Чтобы задать вложенность, вам нужно определить структуру парсинга т.е. рабочий принцип, где будут родительские и дочерние группы для формирования рабочей таксономии.


max-freman :
Есть конечно об этом в справке коллектора: импорт фраз в режиме группа ключ. Группы и подгруппы разделяются табом. Перед ключом обязательно двоеточие. Это я читал. Но если 10К фраз как их все привести к подобному формату.

Допустимо и так, но вам нужно определить рабочий принцип, иначе у вас кол-во групп будет равно кол-ву ключей.


max-freman :
Интресен опыт бывалых кто как это делает. Пока еще не созрело решение как это все в более менее автоматическом режиме сделать. Каждый раз заказывать на фрилансе результат в экселе не интересно. Хочется разобраться самостоятельно. 

Мой опыт следующий. Я всегда сначала формирую рабочую структуру (исходя из данных бизнеса), а уже потом для каждого уровня структуры формирую ядра. 

Это конечно требует определённой проф. опыта и интуиции, чтобы потом правильно дробить древо, но гарантирует то, что уже на раннем этапе ты будешь подбирать запросы под контекст сайта / бизнеса, а не наоборот, когда непосвященный в бизнес семантист начинает формировать структуру глядя на конкурентов, а потом оказывается, что у бизнеса свои особенности и много обработанной информации просто не соответствует текущим реалиям бизнеса.


max-freman :
1) Макрос в экселе который приведет все запросы в соответствие с нужной структурой (или формула?)

А анализ бизнеса и структуры сайта макрос Экселя сам выполнит? 

Любая автоматизация требует определения рабочего алгоритма, а в рабочий алгоритм должен быть заложен принцип. Пока рабочего принципа нет, сам макрос за вас эту работу не сделает.

Структуру должны определить вы. Хотя если у вас информационный сайт и материалы для сайта будут готовить не вы, то здесь - да, могут быть варианты определения структуры через проведённую кластеризацию.


max-freman :
2) Спарсить SERP  и уже на основании этих данных сделать кластеризацию.

Это и будет автоматической кластеризаций на основе данных топа.


max-freman :
Но это тоже тот еще гемор.

А лёгких путей в большом объеме данных нет. 

Даже когда вы выполните программную кластеризацию, внутри групп вам всё равно придётся заниматься обработкой данной.

В программе конечно есть инструменты для групповой обработки, но так или иначе это всё равно сортировочная работа.


max-freman :
Автоматом по плочкам он все равно не раскинет.

Автоматом выполняется автоматическая программная кластеризация.

max-freman :
Ручного труда не убавится.

Доля необходимого ручного труда всегда присутствует. Объём этого труда зависит от ваших навыков работы в программе и опыта в семантике.

Но любой опыт достигается в трудах.


max-freman :
А если запросов 100К? Это ж до седых волос можно группировать.

Хоть миллион. Как говорил один известный персонаж 😉


max-freman :
3) Группировать весь пул запросов по составу фраз. Тоже не лучший вариант как по мне. До идеала там еще очень далеко.

Выше я вам уже подсказал - сначала сформируете рабочую структуру, а потом уже для каждого уровня парсите запросы.

Продвигаясь от частного к общему, вы уже будете понимать, что вам нужно брать в рабочее СЯ, а что пропускать.


max-freman :
Буду признателен если опытные сеошники направят на путь истинный, куда копать нужно. Спасибо что дочитали эту кашу в моей голове😀.

Копайте для начала в освоении материалов по составлению семантики. 

Скачайте / купите / попросите для начала курс по семантике от Ожгибесова. Он довольно своеобразно, но в целом достаточно подробно рассказывать как работать с семантикой в Коллекторе. 


max-freman :
Всем учавствующим заранее огромное спасибо.

Пожалуйста, дерзайте 😎

peshimon :
Мы хотим ускорить сайт и убрать базовые ошибки.
По каким сервисам посоветуете это проверять? Чтобы указать программисту что поправить и на какие параметры ориентироваться?
Я так понимаю это типа pagespeed от гугла и наверное какой-то сервис СЕО аналитики?

Чтобы действительно убрать ошибки, надо полагаться не на результаты сервисов, а на экспертизу специалиста, который даст четкие инструкции и ТЗ вашему программисту.

Все сервисы лишь указывают на несоответствия тем нормам, которые сами же определяют. Многие довольно серьёзные проблемы связанные с циклической адресацией, неправильной структурой и многое другое сервисы не определяют. Приготовьтесь также к тому, что сервисы могут противоречить друг другу.

Так или иначе проблему должен видеть и интерпретировать SEO специалист, а не программист, который посмотрит в отчёт и скажет - "и чё, что мне с этим делать?" 

Из самых базовых и бесплатных:

https://be1.ru/

https://a.pr-cy.ru/

Более серьёзные и уже за денежку:

Пиксель Тулз

Мегаиндекс

Лабрика

saitreport.ru

Всего: 12690