- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет.
Опишу ситуацию.
Есть СЯ на 10к запросов, распределенное условно на 500 страниц (разными "долями").
Проанализировав видимость нескольких десятков конкурентов - собрана семантика еще на 30 (тридцать) тысяч ключей.
После чистки дублей /"пересечения"- осталось 25к новых запросов.
Так вот - я не могу понять - как мне быстро оценить, есть ли подходящая посадочная страница на сайте или нет для новых запросов.
Например среди новых найденных запросов будет ключ вида:
что будет если при гастрите скушать немытый помидор
Вот как понять, есть ли у меня посадочная страница или нет?
Вручную глазами смотреть? (фильтрами Экселя) есть ли у меня страница: Помидоры при гастрите (или нет??)
Я думал может как-то проверить их через сервисы. Чтоб по каждому новому запросу показалась релевантная страница выдаётся - и там уже сравнивать (алиас урла и новый запрос).
Но когда запросов 25к - будет немного затратно (наверное).. А если больше запросов будет, 50к, 80к.
Плюс 100% среди найденных 25к запросов найдутся какие-то УльтраНЧ запросы. и тоже на это тратить?
либо может отобрать какую-то 1к запросов самых частотных - и по ним проверить тольк, а ультра нчшки не брать.
Т.е. как вы решив расширить семантику и собрав десятки тысяч новых запросов (по которым есть видимость у конкурентов) - проверяете - есть ли у вас уже посадочная страница под новый запрос или нужно новую создавать??
Спасибо
Т.е. как вы решив расширить семантику и собрав десятки тысяч новых запросов (по которым есть видимость у конкурентов) - проверяете - есть ли у вас уже посадочная страница под новый запрос или нужно новую создавать??
Это вопрос подхода.
Я сначала формирую структуру и определяю рабочее древо. Продвигаясь по рабочему древу вы работаете с каждым кластером и в формате кластера собираете СЯ, анализируете конкурентов (по конкретному кластеру), шаг за шагом двигаетесь по рабочей таксономии.
Ключевой момент разбивать кластер на подкластеры или не разбивать - здесь зависит от интента и содержания. В одном случае дополняющие запросы можно раскрыть в том же материале, в каких-то случаях для раскрытия семантики нужно ещё несколько посадочных страниц.
Сравнивать всю конкурентную семантику со всей своей семантикой - подход нерациональный, вы всё равно уйдете в детализацию и закопаетесь в том, нужна ли вам доп. посадочная, куда её воткнуть, куда деть остаток запросов от того, что вы собрали.
Продвигаясь по древу своей структуры вы сужаете и конкретизируете рабочую выборку в которой проще и более очевидно принять рабочее решение.
Так вот - я не могу понять - как мне быстро оценить, есть ли подходящая посадочная страница на сайте или нет для новых запросов.
Я такие задачи решаю в Key Assort в пару кликов. Там есть специальный режим «Расширение семантики». Гляньте видос https://youtu.be/sUZMoGRCebo — если я правильно вас понял и это то что вам нужно, программка стоит копейки, прикупите. Вот Key Assort раскидает фразы, которые подходят под уже имеющиеся у вас кластеры, а остальное оставит в левой колонке, вы всё это дело уже в обычном режиме кластеризуете и получите новые кластеры, под которые на вашем сайте надо будет создать новые страницы. А кроме этой функции это ещё и крутой кластеризатор, который так или иначе в хозяйстве пригодится. Из Key Collector 4 можно проект для Key Assort выгрузить, потом в Key Assort подсобрать данные выдачи (если ещё не собраны, но это тоже копейки) и дело в шляпе.
Ещё как вариант в том же Key Collector 4 использовать анализ по тегам. Надо будет покопаться конечно, но штука удобная. Есть видос от Люстика как это делается. Если вы исключительно над своими проектами работаете (работа с семантикой не на потоке), то это вообще запросто по составу фраз раскидать кучу запросов по уже созданной структуре. Это конечно хуже, чем вариант с Key Assort, зато даже за сбор данных выдачи платить не придётся (хотя там копейки, поэтому такой себе аргумент).
Релевантные снимать в данном случае вариант не очень удачный, так как Гугл с Яндексом релевантную найдут, но это не значит, что данный запрос в данном конкретном кластере можно будет продвинуть, так что вариант со сбором релевантных я бы отбросил.