- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет.
Опишу ситуацию.
Есть СЯ на 10к запросов, распределенное условно на 500 страниц (разными "долями").
Проанализировав видимость нескольких десятков конкурентов - собрана семантика еще на 30 (тридцать) тысяч ключей.
После чистки дублей /"пересечения"- осталось 25к новых запросов.
Так вот - я не могу понять - как мне быстро оценить, есть ли подходящая посадочная страница на сайте или нет для новых запросов.
Например среди новых найденных запросов будет ключ вида:
что будет если при гастрите скушать немытый помидор
Вот как понять, есть ли у меня посадочная страница или нет?
Вручную глазами смотреть? (фильтрами Экселя) есть ли у меня страница: Помидоры при гастрите (или нет??)
Я думал может как-то проверить их через сервисы. Чтоб по каждому новому запросу показалась релевантная страница выдаётся - и там уже сравнивать (алиас урла и новый запрос).
Но когда запросов 25к - будет немного затратно (наверное).. А если больше запросов будет, 50к, 80к.
Плюс 100% среди найденных 25к запросов найдутся какие-то УльтраНЧ запросы. и тоже на это тратить?
либо может отобрать какую-то 1к запросов самых частотных - и по ним проверить тольк, а ультра нчшки не брать.
Т.е. как вы решив расширить семантику и собрав десятки тысяч новых запросов (по которым есть видимость у конкурентов) - проверяете - есть ли у вас уже посадочная страница под новый запрос или нужно новую создавать??
Спасибо
Т.е. как вы решив расширить семантику и собрав десятки тысяч новых запросов (по которым есть видимость у конкурентов) - проверяете - есть ли у вас уже посадочная страница под новый запрос или нужно новую создавать??
Это вопрос подхода.
Я сначала формирую структуру и определяю рабочее древо. Продвигаясь по рабочему древу вы работаете с каждым кластером и в формате кластера собираете СЯ, анализируете конкурентов (по конкретному кластеру), шаг за шагом двигаетесь по рабочей таксономии.
Ключевой момент разбивать кластер на подкластеры или не разбивать - здесь зависит от интента и содержания. В одном случае дополняющие запросы можно раскрыть в том же материале, в каких-то случаях для раскрытия семантики нужно ещё несколько посадочных страниц.
Сравнивать всю конкурентную семантику со всей своей семантикой - подход нерациональный, вы всё равно уйдете в детализацию и закопаетесь в том, нужна ли вам доп. посадочная, куда её воткнуть, куда деть остаток запросов от того, что вы собрали.
Продвигаясь по древу своей структуры вы сужаете и конкретизируете рабочую выборку в которой проще и более очевидно принять рабочее решение.
Так вот - я не могу понять - как мне быстро оценить, есть ли подходящая посадочная страница на сайте или нет для новых запросов.
Я такие задачи решаю в Key Assort в пару кликов. Там есть специальный режим «Расширение семантики». Гляньте видос https://youtu.be/sUZMoGRCebo — если я правильно вас понял и это то что вам нужно, программка стоит копейки, прикупите. Вот Key Assort раскидает фразы, которые подходят под уже имеющиеся у вас кластеры, а остальное оставит в левой колонке, вы всё это дело уже в обычном режиме кластеризуете и получите новые кластеры, под которые на вашем сайте надо будет создать новые страницы. А кроме этой функции это ещё и крутой кластеризатор, который так или иначе в хозяйстве пригодится. Из Key Collector 4 можно проект для Key Assort выгрузить, потом в Key Assort подсобрать данные выдачи (если ещё не собраны, но это тоже копейки) и дело в шляпе.
Ещё как вариант в том же Key Collector 4 использовать анализ по тегам. Надо будет покопаться конечно, но штука удобная. Есть видос от Люстика как это делается. Если вы исключительно над своими проектами работаете (работа с семантикой не на потоке), то это вообще запросто по составу фраз раскидать кучу запросов по уже созданной структуре. Это конечно хуже, чем вариант с Key Assort, зато даже за сбор данных выдачи платить не придётся (хотя там копейки, поэтому такой себе аргумент).
Релевантные снимать в данном случае вариант не очень удачный, так как Гугл с Яндексом релевантную найдут, но это не значит, что данный запрос в данном конкретном кластере можно будет продвинуть, так что вариант со сбором релевантных я бы отбросил.