- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Макс, KC уже не используется как парсер, он используется как менеджер и агрегатор cобранных данных.
Мне удобнее все в Гугл.Доках агрегировать или в аккаунте Лабрики на крайний случай)
А ты реально КК как менеджером данных пользуешься?
Вот и выяснилось откуда ноги растут. Начал постепенно в директе наводить тесты по офлайн конверсием для ручной кормки.
Чистая кампания, 200 запросов в группе. Один из них допустим двери деревянные.
Один клиент пишет, двери деревянные кц 5 8 и у нас этот заход попадает в статистику мастера отчетов. Так как он один, других вариантов нет. В мастер отчета попадает 10 показов 1 клик двери деревянные, и только в поисковых запросах мы видим этот показ двери деревянные кц 5 8 2 показа один клик. Очевидно если стата не бьется с метрикой, мы выгружаем мастера отчетов. Стало быть для работы с семантикой яндекс директ стату можно назвать либо начальной, либо вообще ее не учитывать а делать сайт как ты видишь нишу. Уж потом расширение и аналитика. До кучи изначальное ядро ИИ может собрать
Условно мы качаем не стату от яндекса, а поисковые запросы которые вставляют рекламодатели, по кругу копируя их. Загадка вроде как решена. Уже давно в топе по фразе двери деревянные, это лет 5 прям, часто проверяю вебвизор и ну ооочень редко двери деревянные просто так вводят. То что заголовок не кликабельный просто не верю.
Получается владелец сайта обладает самой точной базой данных которая так то представляет собой цену, причем существенную. Это сколько же работы теперь прилетело, хочеться по максималке использовать. Пересобрать ядро никогда не поздно.
Условно мы качаем не стату от яндекса, а поисковые запросы которые вставляют рекламодатели, по кругу копируя их. Загадка вроде как решена. Уже давно в топе по фразе двери деревянные, это лет 5 прям, часто проверяю вебвизор и ну ооочень редко двери деревянные просто так вводят. То что заголовок не кликабельный просто не верю.
Получается владелец сайта обладает самой точной базой данных которая так то представляет собой цену, причем существенную. Это сколько же работы теперь прилетело, хочеться по максималке использовать. Пересобрать ядро никогда не поздно.
Так оно так всегда и было. Ты парсишь данные с вордстата по маркерным ключам, бьёшь конкурентов. собираешь данные. Делаешь структуру на основе семнтики и дальше развиваешь её через видимость в вебмастере. Метрика для этого вообще не нужна, в ней данные по поведению, а остальное дублирует вебмастера. В Гугл Консоле тоже самое.
Именно поэтому делают семантический словарь и охват даже нулевиков, чтобы у тебя были максимально релевантные данные показов из выдачи (и для этого надо сидеть в топ-10 всей СЯ).
Мне удобнее все в Гугл.Доках агрегировать или в аккаунте Лабрики на крайний случай)
Ну это дело хозяйское :)
А ты реально КК как менеджером данных пользуешься?
Как менеджером для проработки и сортировки запросов.
Например, ты сделал выгрузку из 1,5K запросов для отдельной категории. Тебе нужно условно убрать лишнее и избавиться от дублей в переформулировках запросов, а таких категорий - десятки и иногда сотни.
Ты как делаешь в Гугл.Доках? Вручную идешь по строчкам и визуально сравниваешь запись строк? Это адово изнурительно, особенно, когда ты делаешь не для своего проекта, а как коммерческую услуги под ключ. Для этого у KC есть замечательные инструменты: "Анализ групп" и "Неявные дубли", где формируются группы запросов и ты по семантической группировке запросов проверяешь и прямо группами удаляешь ненужное. Т.е. буквально за пол часа или даже менее (в зависимости от состава запросов) делаешь работу на которую без оной возможности потратил бы кратно больше времени.
И опять-таки, прямо в КС вся семантика раскладывается по структурному древу и всегда удобно сделать экспорт с оглавлением, что вполне презентабельно и функционально для отчётной документации.
Не говоря уже о том, что в KC можно выполнять кластеризацию, снимать позицию и проводить прочую аналитику. Для меня KC инструмент из разряда must have.
Во-во, у меня сейчас клиентская семантика на 700000 запросов. Там КК просто без вариантов.
Например, ты сделал выгрузку из 1,5K запросов для отдельной категории. Тебе нужно условно убрать лишнее и избавиться от дублей в переформулировках запросов, а таких категорий - десятки и иногда сотни.
Если скопировать и вставить такие неявные дубли в word-keeper или Topvisor, он их автоматом удаляет) Хотя обычно у меня такие неявные дубли вообще не парсятся в тех инструментах, которыми я пользусь. Ты же имеешь в виду запросы типа "купить холодильник недорого" и "недорого холодильник купить"?
И опять-таки, прямо в КС вся семантика раскладывается по структурному древу и всегда удобно сделать экспорт с оглавлением, что вполне презентабельно и функционально для отчётной документации.
А, я просто не большой любитель всей этой чрезмерной красоты. Мне главное, чтобы все было четко и понятно разобрано в файле. А всякие вензеля и обводки разноцветными ручками - это агентства любят :D
выполнять кластеризацию
Ну, тут только руками. Ни один инструмент не может норм скластеризировать.
снимать позицию
Последний раз, когда пытался это делать, пришлось целый день ждать, когда он позиции по 100+ ключевикам соберет. Уже давно плюнул на это и перешел на Топвизоры, PR CY etc.
Во-во, у меня сейчас клиентская семантика на 700000 запросов. Там КК просто без вариантов.
Такое можно несколько лет разбирать)
Такое можно несколько лет разбирать)
Да не, дней пять. Там же треть неявные дубли, половина мусор, а вторая - порно. )) КК же для этого и сделан, сначала накидываешь кластеры по частотке разгребая слова, потом парсишь выдачу и ручками допишиваешь то, что в работу.
Вот на приватных прокси даже запарился ждать 12 часов сбора '!' )
По позиция, так подключить xml, он собирает по 10 в секунду, а стоит - копейки.