Key Collector - автоматизированная система анализа семантического ядра. Часть 9

alexpike
На сайте с 29.01.2012
Offline
177
#241

Есть вопрос. Покупал Кейколлектор. Ставил на ноут. Недавно заменил неисправный hdd. Заново нормально поставится?

kolbas
На сайте с 04.09.2008
Offline
118
#242
MIND:
kolbas, все оформленные предложения постепенно вводятся в оборот :). Осуществить можно, да.

Большое спасибо, буду очень ждать. Вы моё предложение возьмёте на карандаш или мне нужно его оформить в саппорт?

Отличный хостинг с вкусной ценой, безотказным саппортом, бесплатным автоматическим подключением и продлением SSL сертификата, HTTP/2 и PHP 7.3. (https://goo.gl/hLeI54)
MyOST
На сайте с 22.01.2006
Offline
559
#243
kolbas:
Вы моё предложение возьмёте на карандаш или мне нужно его оформить в саппорт?

лучше в саппорт, там точно не пропадет

alexpike:
Недавно заменил неисправный hdd. Заново нормально поставится?

нужна будет замена лицензии, если HID изменился

http://www.key-collector.ru/license-update.php - регламент замены лицензии

http://www.key-collector.ru/user-support.php - техподдержка

Блог (http://seom.info/) | Ты уже SEO профессионал? (http://www.key-collector.ru/) Развиваем семантику более 8 лет! ()
S
На сайте с 19.11.2009
Offline
27
#244

Подскажите, пожалуйста. В регионы Yandex.Wordstat указал Россию, но при определении конкуренции выдает результаты с Украины (я в Укр). Где в настройках указать регион для Яндекса или хотя бы без учета региона (нашел только в парсинг-подсказки-Yandex-задать самостоятельно, но это не работает).

MyOST
На сайте с 22.01.2006
Offline
559
#245
startmaster:
В регионы Yandex.Wordstat указал Россию, но при определении конкуренции выдает результаты с Украины (я в Укр).

регионы вордстат задаются здесь - http://www.key-collector.ru/usage.php#yandexwordstat_region

регионы для парсинга конкуренции (выдачи) здесь

Aqvamarin
На сайте с 13.04.2008
Offline
104
#246

Люди добрые, подскажите, пожалуйста, где чего нажать надо, чтобы при парсинге отображались данные в колонке "Конкурентность"?

Вебледи - женский форум веб-мастеров (http://webledi.club)
G8
На сайте с 09.04.2010
Offline
87
#247

Это через KEI делается, сбор данных для Яндекс и гугл

Skype Gnev88 SEO оптимизация без закупки ссылок, только оптимизация и развитие проекта. SEO Бюджет в месяц от 25000р под ключ. Отличный съем позиций тут (http://www.seobrain.ru/#53640622)
BadBoy
На сайте с 31.01.2005
Offline
308
#248

Хочу сказать, разработчикам спасибо, программа реально уменьшает трудозатраты и минимализирует рабочее время.

Если кто сомневается, не парьтесь, берите, больше сэкономите по итогам...

Саппорт так же быстрый, все ок!

Toan
На сайте с 06.08.2008
Offline
214
#249

Вопрос к разработчикам: как сейчас работают рекомендованные прокси от Глобатела? Видел несколько нехороших отзывов об их неработоспособности несколько месяцев назад, но возможно на данный момент ситуация изменилась.

Простейший способ сбора НК ключей (http://mutagen.ru/?r=55527), дающих трафик. Всего 30 рублей за 100 шт. А также автоматическая группировка (http://semparser.ru/p/1506) запросов по страницам для эффективного продвижения + экономия на текстах.
d4k
На сайте с 02.03.2010
Offline
146
d4k
#250
kolbas:
Добрый день, подскажите, можно ли как-то сделать так, чтобы программа собирала с ПС только те ключи, которые содержат указанное мною сочетание букв?
Т.е. я задал, чтобы софт собирал только ключи содержащие "дров", для сбора, естественно, указывается, как и сейчас, основные ключи, типа "скачать дрова" и т.п., но чтобы собирал софт кеи только содержащие "дров".
Все кеи соответствующие данному условию (содержащие в одном из слов "дров") заносятся в колонку "Фраза", а то что не соответствует игнорируется (ну или записывается где-то отдельно) и на следующий уровень сбора идут только целевые кеи, т.к. мусор отфильтрован уже на первом уровне сбора.


Просто, когда указываешь глубинный анализ 2 и более, софт собирает кучу мусора (я понимаю, что это не проблема софта) и собирая кеи по дровам в итоге имеешь несколько К кеев по путешествиям, стихам и прочей ненужной шалупени. А потом весь этот шлак начинает собирать себе подобные кеи на 2-ой и более глубине анализа - всё это занимает довольно много лишнего времени.

Если можно сделать как я написал, то это очень существенно сократит время парсинга, сэкономит прокси и даст небольшую передышку Яше)))

П.С. Я писал саппорту месяца полтора назад, чтобы сделали возможность удалить ненужный кей в процессе парсинга и чтобы софт не начинал по нему парсить на следующих глубинах анализа. Просматривал обновки, но не нашёл такого, это ещё в очереди или я пропустил?

Очень надеюсь, что написанную мной идею можно осуществить :)

Тоже необходим такой функционал. Я для этого делал так: парсил все нужные ключи (с мусором), а потом, банально, фильтром удалял все что НЕ СОДЕРЖИТ "дров" (в вашем случае) и переносил в новую вкладку... Вот так вот. Время сбора ключей ес-но можно многократно увеличить при парсинге с большей глубиной. ++

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий