Key Collector - автоматизированная система анализа семантического ядра. Часть 13

[Удален]
#411

там же есть вкладка "яндекс директ" - там ставишь галку "сбор для статистики вордстат" или что-то подобное - и там просто отмечаешь, какие частотности надо собрать

---------- Добавлено 27.07.2016 в 10:01 ----------

ЗЫ: разработчику и автору огромное спасибо, лучше софта для сбора семантики пока не бьыло и не предвидется

А так, граната в руке бойца - опасное оружие, а в руках обезьяны...😂

Resett
На сайте с 10.04.2012
Offline
133
#412
modastylru:
там же есть вкладка "яндекс директ" - там ставишь галку "сбор для статистики вордстат" или что-то подобное - и там просто отмечаешь, какие частотности надо собрать
Написал в поддержку, сказали - нет такой функции, но учтут, что нужно) Так что не было такого..
MyOST
На сайте с 22.01.2006
Offline
559
#413

Resett, фактически речь о планировщике задач? пока не внедрен

Блог (http://seom.info/) | Ты уже SEO профессионал? (http://www.key-collector.ru/) Развиваем семантику более 8 лет! ()
Links Forever
На сайте с 20.08.2006
Offline
329
#414

Пара вопросов про сбор данных через пользовательскую маску Яндекс Вордстат.

1. Я использую маску "[!QUERY]", насколько точно работает запрос со скобками? Иногда попадаются запросы, например с точной частотой "!" 75, а со скобками 0 и нет других вариантов запроса. Это выглядит странно. Можно ли полагаться на данные со скобками?

2. Можно ли данные со скобками как-то использовать в инструменте "Анализ неявных дублей", что он отмечал галочкой те словоформы, у которых значение в [] меньше.

Типа:

купить ботинки 201

ботинки купить 41

Точная частотность у запросов одинаковая "!" = 242, а вот со скобками различается. Можно эту информацию использовать для отсеивания дублей?

Я очень люблю вкусные рецепты (https://povar24.info) квашеной капусты (https://kvashenaya-kapusta.ru/) и салат оливье (https://salatolive.ru/).
one
На сайте с 15.04.2007
Offline
336
one
#415

а какое значение должно выводиться при запросе с []?

Решения для автоматизации действий ( https://www.facebook.com/automationstudio20/ ) в интернете.
IBakalov
На сайте с 05.10.2011
Offline
218
#416
_alk0g0lik_:

2. Можно ли данные со скобками как-то использовать в инструменте "Анализ неявных дублей", что он отмечал галочкой те словоформы, у которых значение в [] меньше.
Типа:
купить ботинки 201
ботинки купить 41
Точная частотность у запросов одинаковая "!" = 242, а вот со скобками различается. Можно эту информацию использовать для отсеивания дублей?

Можно. Ты сам там выбираешь по какому столбцу фильтровать дубли.

MIND
На сайте с 08.03.2007
Offline
238
#417

Голубая лагуна, через форму автозамены. Также при запуске программы в случае, когда она не принимает лицензию, написаны все контакты и способы получения лицензии.

Key Collector - автоматизированная система анализа семантического ядра (/ru/forum/863504)
MyOST
На сайте с 22.01.2006
Offline
559
#418
_alk0g0lik_:
1. Я использую маску "[!QUERY]", насколько точно работает запрос со скобками? Иногда попадаются запросы, например с точной частотой "!" 75, а со скобками 0 и нет других вариантов запроса. Это выглядит странно. Можно ли полагаться на данные со скобками?

Если есть сомнения, то нужно проверять на конкретных запросах.

Скажем так, снятое через вордстат, доверять можно. Снятое через директ, увы, бывают косяки, когда директ выдает без учета спец запросов. То есть в самом директе отображается лажа.

one:
а какое значение должно выводиться при запросе с []?

https://yandex.ru/support/direct/efficiency/refine-keywords.xml

Оператор «[ ]» (квадратные скобки). Позволяет зафиксировать порядок слов в поисковом запросе. При этом учитываются все словоформы и стоп-слова.

Фактически, на мой взгляд, предпочтительна конструкция "[!]" , но опять же , я могу говорить лишь о своих задачах.

St.One
На сайте с 03.03.2008
Offline
118
#419
fisher_ak:
Подскажите пож-та, что на данный момент актуальней: прокси + анти капча или XML лимиты?
Необходимо:
1) один раз в день парсить 1-5 тысяч запросов
2) снимать с полученных данных все виды частотности
3) 1 раз в неделю/две недели анализ позиций на 1-5 тысяч позиций.

Можно взять проксей и не париться с лимитами, главное таймауты нормально настроить и задача вполне решаема...

Например частоты снимать и 5 проксей хватит,с позициями чуть сложнее, нужны будут больше таймауты между запросами и скорее всего понадобится Антикаптча, а может и нет, хорошие настройки нужны)

Здесь Индивидуальные прокси (http://www.primeproxy.net/)
Grim
На сайте с 13.04.2005
Offline
144
#420

Есть 20 групп запросов, как собрать частотности по всем группам сразу? Не ожидая каждый раз завершения задания по одной группе, чтобы запустить следующую.

God loves me, not you, bastard!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий