- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Но вообще правильно выше говорят, нафиг нужен этот софт, если на постоянке не занимаетесь семантикой.
я в этом деле с 2006 года ... обычно справляюсь екселем =)
в объемах до 10 тыс. запросов
но тут ... грубо говоря - 150 тыс. запросов
всё в куче - услуги, города, типы услуг
виды ...
типы (синонимы)
виды (конечный пункт классификации)
я в этом деле с 2006 года ... обычно справляюсь екселем =)
в объемах до 10 тыс. запросов
но тут ... грубо говоря - 150 тыс. запросов
всё в куче - услуги, города, типы услуг
виды ...
типы (синонимы)
виды (конечный пункт классификации)
Ну, если я всё правильно понял, то услуги и типы услуг во всех городах идентичны?
Если да, то можно просто очень подробно распарсить Москву, взять оттуда вообще всё, даже микро НЧ всякие, а потом раскатать на все города. В Москве получится более подробно собрать семантику, чем в условной Вологде, так что может быть по всем городам семантику собрать и кластеризовать не нужно.
Ну т.е. маркерные запросы собрать, примерно оценить спрос в тематике и на основе этого генерёжку сделать.
Можно посмотреть сайты московских конкурентов (даже если они просто по Москве работают) — там скорее всего уже сайты по структуре сделаны правильно.
Ну и агрегаторы.
Я по инфо, поэтому фиг знает, как там в услугах это делается. У меня ядро в 100.000 фраз — это типичная ситуация, и там 15.000 — 20.000 групп примерно получается, где ничего ни по каким критериям не повторяется и приходится все 100.000 запросов разбирать, генерёжкой не отделаешься. Поэтому я для себя выбрал Key Assort, чего и вам желаю. Там один раз данные выдачи собираете, потом пробуете разные методы кластеризации с разными порогами, находите идеальный для вашей тематики вариант, а потом просто в любимый Excel выгрузку делаете и спокойно идёте сайтик прорабатывать.
как его купить?
Мой тебе совет, как древнего капитана.
Составь всё в ручную, да, ты потратишь много времени, но, результат окупится.
Потому что не одна программа не сможет сделать всё за тебя.
Ну, если я всё правильно понял, то услуги и типы услуг во всех городах идентичны?
в зависимости от области, от сезона
но в целом, по всей РФ - есть определенный список УСЛУГ
каждая услуга может иметь до 10-20 направлений
каждое направление (образно говоря)
может иметь свойства - и они тоже есть
например: ремонт автомобиля = услуга
ремонт двигателя
ремонт ходовой
ремонт стекла
===================== направления
Ремонт головки двигателя = свойство
это если совсем грубо
Если да, то можно просто очень подробно распарсить Москву, взять оттуда вообще всё, даже микро НЧ всякие
а смысл? у меня с 2017 года каждый год с 60 сайтов примерно
сохраняются статистика директ по ключам
статистика метрики по ключам
я директолог на этих сайтах
ключей уменя больше 150 тысяч, возможно больше
по всей РФ
парсить нет смысла - это всё есть, готовое
У меня ядро в 100.000 фраз — это типичная ситуация, и там 15.000 — 20.000 групп примерно получается
а в какой программе это всё ведете?
Я дал ссылку. Оттуда можете его скачать.
я скачал - он требует код
Мой тебе совет, как древнего капитана.
привет капитану
от такого же древнего =)
сео занимаюсь наверно с 2006 года =))
тут просто объем большой, вот и подумал, может есть способы как-то это всё дело упростить ... ускорить
но анализируя происходящее- вижу, что этим вообще никто не заморачивается ....
ну нет никаких реально работающих иструментов, почти
хотя инструкций - по их написанию - полно
может они и есть ... но самописы...
я в этом деле с 2006 года ... обычно справляюсь екселем =)
в объемах до 10 тыс. запросов
но тут ... грубо говоря - 150 тыс. запросов
всё в куче - услуги, города, типы услуг
виды ...
Ого! И только через 18 лет озадачились кластеризацией? :)
Я к чему пишу. Готовьтесь к тому, что кластеризатор всё равно сделает свою работу кривовато.
По результату всё равно придётся проходиться руками и править черновую сборку.
Ого! И только через 18 лет озадачились кластеризацией? :)
вы серьезно?
я веду разговор ЗА ОДИН проект - с конкретной задачей выходящей за рамки моего понимания
о том
как быстро ее решить, или хотя-бы классифицировать то, что есть (по запросам)
для составления ядра
Я дал ссылку. Оттуда можете его скачать. Он работает бесплатно, некоторые функции будут ограничены. Но вы сможете попробовать функционал именно на предмет того, как он запросы раскидывает. А лицуха стоит копейки вообще.
осталось вот с этим разобраться по сути
купить - собственно, можно ... но они не отвечают
но они не отвечают
а в какой программе это всё ведете?
В Key Assort. Ну, собираю где попало, раньше Wordstat парсил, теперь уже типа как у вас ситуация, третий проект в одной и той же тематике запустил, вся семантика уже собрана пересобрана. Но если бы с нуля сейчас начинал — собрал бы всё что есть у всех конкурентов в Keys.so, а потом закинул бы в Key Assort и там уже всё очень удобно было бы разбито на группы, считай что готовый контент-план на 5 лет вперёд)
я скачал - он требует код
Требует лицуху. Но его можно в демо-режиме попробовать. Там по функционалу вроде как никаких ограничений особых нет.
Блин, ну если одна задача всего — можете купить на свой аккаунт лимитов сколько потребуется чтобы раскидать вашу семантику, скинете мне явки, пароли и свою семантику, я раскидаю и скину вам Excel.
вы серьезно?
Конечно. Как можно 18 лет заниматься работой, связанно с поисковыми запросами и озадачится вопросами их структуризации только через полтора десятка лет - мне не понятно. Но это скорее вопрос риторический :)
я веду разговор ЗА ОДИН проект - с конкретной задачей выходящей за рамки моего понимания
о том
как быстро ее решить, или хотя-бы классифицировать то, что есть (по запросам)
для составления ядра
На объёмах свыше 10 тыс. запросов, - да, кластеризатор поможет, но это всё равно будут сотни групп, которые потом всё равно придётся проходить вручную, чтобы внедрять запросы на страницы.
Я не знаю, что у вас за проект и какие рабочие обстоятельства, но лопатить сотни групп вы скорее всего устанете, тем более когда это бессистемно и вы будете мучаться вопросами - какие группы надо будет сохранить, а какие рассортировать и распределить по другим группам - это долгая, изнурительная работа, которую чаще всего просто забрасывают.
На мой взгляд, более целесообразно идти по готовой структуре сайта (когда она есть) и расширять семантику по конкретным бизнес задачам и по содержимому на страницах. А для этого более резонно заниматься сбором конкурентной семантики и прорабатывать её постранично.
На мой взгляд, более целесообразно идти по готовой структуре сайта (когда она есть) и расширять семантику по конкретным бизнес задачам и по содержимому на страницах. А для этого более резонно заниматься сбором конкурентной семантики и прорабатывать её постранично.
ну, то такое =)
много есть задумок... планов, но это всё техничка
главное решить одну задачу... потом уже расширяться
написал в кейАсорт
жду ответа