- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
О, страницу исписали, интересно, есть ли что прикладное? -)
В прямом. Сколько там уникальных слов? Мало вероятно что 180 000, правда? Чем их все парсить проще компилировать взяв частотность за 0, которая по факту "!" и будет ноль у ~170 000
Причем если прикинуть вероятное количество слов к длине фразы, при условии что нам известен результат в 180 000, то фраза врятли будет часто длинее 3-х слов если мы хотим получить словарь хотя бы в 100 слов, потому что словарь в 1000 слов, при прочих равных, даст 170КК фраз
Поэтому сильно похоже на то, что спарсить нужно только то что имеет хоть какую-то точную частотность и потом, составив словарь, просто скомпилировать столько фраз сколько хочется, отсеять дубли и уже после этого заниматься сбором статистики для конкретного списка.
Чем померить конверсию в КК для 180 000 фраз?
Вполне вероятно что я что-то упустил из последних релизов этого инструмента.
Теперь возник еще один вопрос. Сколько фраз из 180 000 я не соберу в СЕРПе ТОП 30, например?
Уникальные - в смысле ПРОСТО слов или ключей? И в смысое компилировать? Обучить/рассказать/объяснить + ребёнку/детям/школьникам + N? Так и собирается основная база слов. По словам в целом, на 130000 частотных запросов - 11050 словоформ в среднем по 4 формы у каждого (классы, классу, классом, классов, классе, классах, классам, класса, класс - только использованные). Вы переборкой хотите какой результат-то получить? ) У меня задача - сделать скоринг собранного ядра на основе как раз генерации, а генерация - из конкурентов.
Второе предложение тоже навеяло на эти мысли. Повторюсь - скоринг готовых запросов, после основной чистки, но до кластеризации.
Зачем в КК мерить конверсию? ) Речь о том, что не имея всего охвата трафика, конверсионку ты не узнаешь (например, у меня в ИМ больший % продаж приходится на страницы категории с атрибутами и, как итог, я максимально эти страницы прорабатываю далее, а не собрал бы изначально ядро и не разбил товар по 30 критериям (из семантики и конкурентов), то не получил бы этих данных и продаж.
Про сбор с серпа, если говорить про Кейсо, то около 80% частотных запросов в Кейсо нет (после лемматизации). Такие дела. )
Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.
Кому нужна семантика без структуры и кто те же атрибуты внедряет промтами? Или в тот же контент-маркетинг. Если говорить про еком, 80% внедряется через структуру каталога (в меньшей степени) и карточку товара (в том месте, где он складируется (б24, 1с, мой склад и т.д.) или же в Гугл таблицах.
Заработать хотят. Но у нас на корпоративным 10 плановых пользователей и на каждом плановом пользователей ещё 5 дочерних :)
Пригласите в свою складчину? ))) Я много не ем. )
Ой. Я думал, у тебя какая-то дорвейная история с такими объёмами, а тут по древу. Я обычно по древу семантику и собираю, а потом его достраиваю по необходимости. Поэтому в общей массе запросов может быть десятки тысяч, но в пошаговом исполнении это куда более посильные объёмы.
Сотни тысяч - это конечно чОкнуться можно.
К чёрту дорвеи. ) А семантику я люблю намного больше, чем именно комплексное SEO. От него я скорее чокнусь и стараюсь им вообще не заниматься.
я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.
Каннибализация есть, но в формате запросов, у которых может быть разный интент по умолчанию. Как тот самый "Наполеон". В остальном всю нормально, бывают изменения, но не критичные. Опять же надо понимать, что не малая часть ключей в ТЗ уходит под жесткую лематизацию (ед. число, минус предлоги и союзы, им. род), некоторые ключи используются как общие для всего кластера (такой-то класс). Т.е. какой-то супер большой проблемы поисковик не испытывает. Да и способы борьбы с такими историями известны, если грубо говорить - howto, создание подборок с центровыми статьями/хабами контента и всё такое прочее. Не для голого Вукомерц/спама в блоге, в общем.
У меня тоже возникают к бизнес модели. Наверняка можно более рационально анализировать семантику.
Можно. Но тех, кто отрабатывает Вордстат или, в крайнем случае, только Кейсо и делает софт кластеризацию - много. ) Опять же, если под себя делать директ по такой схеме, то и пластиковые окна начинают окупаться (за счёт огромных списков минус фраз и дальнейшей доработки после кросс-аналитики).
И ни один суперспец не разделил лиды, траф и все что вам втирает директ, вебмастер и прочая шняга
ТС, прежде чем лезть в тему, определитесь, вам траф нужен для заработке на рекламе или доход с продаж. Все остальное пища для флудил
И ни один суперспец не разделил лиды, траф и все что вам втирает директ, вебмастер и прочая шняга
ТС, прежде чем лезть в тему, определитесь, вам траф нужен для заработке на рекламе или доход с продаж. Все остальное пища для флудил
О, а я-то думал, чем Датода прикормил. )
Надо же, оказывается лиды считать надо, тоже в это с трудом верится. )О, а я-то думал, чем Датода прикормил. )
Надо же, оказывается лиды считать надо, тоже в это с трудом верится. )Пригласите в свою складчину? ))) Я много не ем. )
К сожалению, вряд ли получится. Только-только утрясли заботы связанные с перерасходом лимитов от особо затейливых старателей.
Я сам за то, что платить больше и уменьшить кол-во, но организатор не я.
Я прошу прощения, что как-то так рассказал про возможности, а взять к себе не могу, потому что организатор складчины не я и я сам ждал места 2 месяца.
Но дают ориентир, что такие варианты возможны, если нацеленно искать и ждать.
К чёрту дорвеи. ) А семантику я люблю намного больше, чем именно комплексное SEO. От него я скорее чокнусь и стараюсь им вообще не заниматься.
Ой, а я нет. Ну 2-3 часа на семантику не больше. Дальше я начинаю выгорать.
Мне больше по душе аналитика, точки роста, гипотезы, внедрения, анализ и аналитика UX/UI, креативы, запросная и продуктовая аналитика, прототипирование, формирование оффера, коллективные брифинги - этой прям драйвит.
А списки запросов лопатить, всё-таки дозированно. Cкажем так, 10K сырых запросов по группам за день раскидаю, больше уже начинает сильно удручать.
Ой, а я нет. Ну 2-3 часа на семантику не больше. Дальше я начинаю выгорать.
Мне больше по душе аналитика, точки роста, гипотезы, внедрения, анализ и аналитика UX/UI, креативы, запросная и продуктовая аналитика, прототипирование, формирование оффера, коллективные брифинги - этой прям драйвит.
А списки запросов лопатить, всё-таки дозированно. Cкажем так, 10K сырых запросов по группам за день раскидаю, больше уже начинает сильно удручать.
Я этим и занимаюсь на основе семантики. Сейчас именно в формате структурирования и onpage (конверсия и ФО для дизайнеров по прототипированию), системы фильтрации + автоматизация процессов (торговые матрицы, работа с интеграциями склада) + расширение ассортимента.
Я этим и занимаюсь на основе семантики. Сейчас именно в формате структурирования и onpage (конверсия и ФО для дизайнеров по прототипированию), системы фильтрации + автоматизация процессов (торговые матрицы, работа с интеграциями склада) + расширение ассортимента.
Тогда, прости, я не понимаю, как сверх всего этого ты перевариваешь 100K ядра. Это нереально.
Тогда, прости, я не понимаю, как сверх всего этого ты перевариваешь 100K ядра. Это нереально.
Места знать надо. ) Но тут ответ довольно простой. 100к - это истории про фильтрации, я их сразу прорабатываю в формат прототипирования и выгружаю в таблицы с готовым ТЗ, где одинаковые свойства разных товаров на одном уровне.
Как итог, получаются такие структуры:
в готовом виде. Со словарём склонений, родов и падежей для генерации тайтлов и шортов.
Ну или такие в виде семантики:
Но это прям очень простая история с чётким гео и без конкретного интента, только по Бутово (1500 частотных запросов, 32 страницы на 8 услуг).
Места знать надо. ) Но тут ответ довольно простой. 100к - это истории про фильтрации, я их сразу прорабатываю в формат прототипирования и выгружаю в таблицы с готовым ТЗ, где одинаковые свойства разных товаров на одном уровне.
Ну в целом привычный ассортимент с признаками. Откуда там 100K ядра? Не должно быть там такого количества рабочих запросов, если конечно ты принудительно не перемножаешь всё со всем в режиме жадной комбинаторики + умножая на все возможные склонения и спряжения :)
Раздуть перечень, чтобы потом отсеять 90% сгенерированных вариаций? Или откуда там набирается такое кол-во?
Отсев неявных дублей происходит?
Если начать отсеивать по частотке, я думаю в отдельных группах товаров сразу будет понятно, по каким признакам есть резон проводить проверки, а по каким нет.