- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
MIND,
А при глубинном анализе алгоритм обработки такой же ?
А от делал: купить слона
получил:
Купить слона
купить слона дешево
купить слона оптом
далее пошёл глубинный анализ:
купить слона дешево (глубинный анализ уровня 1) начат
купить слона дешево (глубинный анализ уровня 1) завершен
купить слона оптом (глубинный анализ уровня 1) начат
…тут остановили
…запустили снова
получили:
Начат сбор левой колонки для фразы "Купить слона".
хотя по логике, вроде бы должно быть:
купить слона оптом (глубинный анализ уровня 1) начат/продолжен
И далее в Журнале событий тишина. Но слышно что данные подгружаются. Как при перовм парсинге, когда собираются слова еще ДО глубинного анализа, т.е. запросы к вордастату идут, но слова не сохраняются, т.к. они уже есть в базе.
вот при таком раскладе как?
Dzen, про глубинный в мануале написано, почему мы рекомендуем глубину 0.
MIND, Но если нужен именно глубинный, и пойти по предложенному альтернативному пути – копирование слов в буфер, и из буфера снова в Пакетный сбор, т.е. все эти слова будут находится в одной Группе, и будет сделана Пауза, то при Продолжении, сбор пойдёт снова с первого слова в Группе? Или с места Остановки?
Dzen, при возобновлении берется старая очередь парсинга.
друзья, подскажите как лучше быть.
Пытаюсь решить как лучше разгруппировать собранное сем.ядро для сайта (предположительно 500-600 статей), с помощью КК.
Изначально выбрал стратегию 1 группа в КК = 1 статья (со своим списком ключевых фраз), но этот подход оказался недееспособен, так как КК загибается при количестве групп больше 200 даже на мощном игровом железе.
Не могу придумать, как еще разгруппировать такие, средние по объему СЯ с помощью КК.
Выдергивать запросы из КК и группировать где то в других сервисах - не подходит, так как теряются данные о конкуренции/частотности, которые нужны мне для дальнейшей работы с группами.
Буду благодарен за Вашу помощь и может быть опыт того, как заставить КК работать нормально с большим количеством групп.
madmozg, напишите в тикеты - рассмотрим Ваш случай частный.
Добрый день.
Допустим есть такие ключевые слова
1
1 2
1 2 3
1 2 3 4
1 2 3 4 5
1 2 3 4 5 6
1 2 3 4 5 6 7
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7 8 9
1 2 3 4 5 6 7 8 9 0
Режим группировки "по составу фраз" группирует фразы по кол-ву совпадений слов между ними. За минимальное кол-во совпадений слов, которое будет учитываться, отвечает параметр "силы группировки".
При анализе групп по составу фраз если силу состава указываем 9, то получаем группу
из следующих слов.
1 2 3 4 5 6 7 8 9
1 2 3 4 5 6 7 8 9 0
что вполне понятно т.к. в этих двух ключах 9 слов совпадают.
Далее при анализе этих же ключей если силу составу фраз указываем 8, то получаем ту же самую группу из следующих слов.
1 2 3 4 5 6 7 8 9
1 2 3 4 5 6 7 8 9 0
Почему в эту группу не вошел ключ 1 2 3 4 5 6 7 8 ? Ведь логично что этот ключ имеет 8 совпадений как и предыдущие?
При анализе этих же ключей если силу составу фраз указываем 7, то получаем уже две группы по 2 ключа в каждой
Первая
1 2 3 4 5 6 7 8 9
1 2 3 4 5 6 7 8 9 0
Вторая
1 2 3 4 5 6 7 8
1 2 3 4 5 6 7
Объясните логику. Совсем запутался как действует алгоритм...
Тикет писал. Ответили что КК группирует не только по количеству совпадений, но и используя дополнительные алгоритмы. Если не секрет какие, что бы хоть как то понять логику группировки? И можно ли сделать что бы при анализе группировки не было никаких дополнительных алгоритмов, а простое количество совпадений слов в ключах, потому что иначе группировки большого количества ключей становятся просто необъяснимым черным ящиком, когда в группы попадают совсем не релевантные группе ключи, в то время как релевантые идут в другую группу. Приходиться делать это почти в ручную и проводить большую адскую работу просто группируя по несколько раз "по отдельным словам", а на 100 тыс ключах это уже проблематично и такая сортировка занимает даже не часы ручного труда, а сутки. Пожалуйста можно сделать какую-нибудь галочку, что бы анализ групп по составу фраз был только по количеству совпадений слов в фразе, без всяких доп алгоритмов. Очень надо!!!
Выдергивать запросы из КК и группировать где то в других сервисах - не подходит, так как теряются данные о конкуренции/частотности, которые нужны мне для дальнейшей работы с группами.
Что значит "теряются"? Вот собрали вы 100500 запросов в КК на одной вкладке, получили частотность, КЕИ, или еще что-то. Выгрузили все это дело в эксель. Затем через любой сервис кластеризации сделали группы. Затем через ВПР в экселе для каждого запроса "вернули" назад частотности и прочее. В чем проблема то?
IBakalov, проблема на самом деле в недостатке опыта, в первую очередь, поэтому Ваш комментарий полезен. Насчет того чтобы вернуть данные из сырой базы, в уже разгрупированную, вообще мысль не дошла. Спасибо, копну в этом направлении!
А так уперся в то, чтобы все делать в рамках КК с помощью встроенного функционала
Затем через ВПР в экселе для каждого запроса "вернули" назад частотности и прочее. В чем проблема то?
Стесняюсь спросить. А что такое ВПР?