Букварикс: бесплатная программа для быстрого подбора ключевых слов

T6
На сайте с 12.03.2010
Offline
42
#61

Частотность для Беларуси не правильная, вообще не правильная.... Нужно в итоге загонять в коллектор. /Но списки стоп слов хороши!

AM
На сайте с 12.01.2015
Offline
3
#62

Titan681, да, цифры по частотности неточные. Я делал сравнение с актуальными данными Яндекса и цифры совпадают в плане относительных показателей, т.е. насколько количество показов одного запроса больше чем у другого оценить можно.

Bukvarix
На сайте с 27.02.2013
Offline
134
#63
ax-makarov:
Ребята, должен признаться, вы крутые) Отличная база ключевых слов: по качеству намного превосходит Пастухова. Вам удалось добиться очень высокой скорости работы. Несомненный плюс - поддержка лемматизации (морфологии) запросов. Какой морфологической библиотекой пользуетесь?

Большое спасибо за добрые слова, мы, правда, хотим сделать очень полезный инструмент для подбора слов.

Для морфологии мы используем открытую разработку от aot.ru (http://aot.ru/)

ax-makarov:
Было бы здорово, если бы у вас было реализовано что-то вроде "анализа групп" (как в Key Collector)

В Key Collector есть три подхода к составлению групп - один на основе поисковой выдачи, другой - на основе общих корней, третий - комбинация этих двух. В нашем случае - с учетом размеров базы - парсить поисковую выдачу по такому количеству словосочетаний будет крайне сложно и дорого, поэтому мы можем воспользоваться вторым подходом (на основе общих корней) или придумать что-то свое. Мы понимаем, что группировка тоже востребована, и в наших планах эта функция есть, но приоритеты у нас сейчас другие, до группировки очередь дойдет намного позже.

ax-makarov:
вам не составит особого труда сделать анализ неявных дублей

За предложение по анализу неявных дублей спасибо, записали в планы.

Еще раз спасибо за отзыв и за пожелание успеха!

Titan681:
Частотность для Беларуси не правильная, вообще не правильная.... Нужно в итоге загонять в коллектор. /Но списки стоп слов хороши!

Данные и не могут совпадать, потому что вы проверяете сейчас, а база собиралась раньше. Вот пост, в котором мы дали развернутый ответ на этот вопрос: /ru/forum/877149

Базы такого объема всегда обновляются с задержкой. Поэтому метод, когда слова быстро подбираются Буквариксом, а частотности обновляются в Key Collector'e, является с нашей точки зрения оптимальным.

ax-makarov:
Titan681, да, цифры по частотности неточные. Я делал сравнение с актуальными данными Яндекса и цифры совпадают в плане относительных показателей, т.е. насколько количество показов одного запроса больше чем у другого оценить можно.

Спасибо за уточнение. Мы тоже считаем, что соотношения часто дают более ценную информацию для принятия решений, чем абсолютные цифры.

Конечно, есть очень текучие ниши, для которых нужна очень свежая информация, но в целом удельный вес таких ниш намного ниже, чем стабильных.

Мы рассчитываем на то, что каждый вебмастер понимает, с каким контентом он работает, и насколько ему будет подходить база Букварикс.

D
На сайте с 17.04.2013
Offline
109
#64

Программа хороша. Что бы хотелось/предложения:

  • Добавить частотности от Гугл.
  • Добавить биды по РСЯ/Adsense.
  • Убрать дубли и неправильные словоформы, т.к. этот мусор приходится каждый раз вычищать. К примеру при вводе ключа в вордстат, он часто выдает правильную словоформу (которую вы можете спарсить) и частотность, и в выдаче используется именно она.
  • Экспорт найденных ключей в буфер обмена, чтобы сразу можно было вставить в Слово*б / Кей коллектор.

И пара вопросов:

  • У ключей, у которых в базе нет статистики по частотности - это значит нулевая частотность прямых вхождений и частотность такая, что и смотреть на них не стоит?
  • Искать можно как-то по сокращенным словам, например жен* обув* ?
Bukvarix
На сайте с 27.02.2013
Offline
134
#65

Dreamfall, спасибо за предложения и вопросы.

Dreamfall:
Программа хороша. Что бы хотелось/предложения:
  • Добавить частотности от Гугл.
  • Добавить биды по РСЯ/Adsense.
  • Убрать дубли и неправильные словоформы, т.к. этот мусор приходится каждый раз вычищать. К примеру при вводе ключа в вордстат, он часто выдает правильную словоформу (которую вы можете спарсить) и частотность, и в выдаче используется именно она.
  • Экспорт найденных ключей в буфер обмена, чтобы сразу можно было вставить в Слово*б / Кей коллектор.

Частотности от Гугл, улучшение фильтрации дублей и неправильных словоформ, возможность копирования большого количества строк через буфер обмена - это у нас в планах есть, в сторону бидов пока не смотрели, сейчас дорабатываем то, что спрашивают чаще всего (быстрая сортировка, фильтрация, обновление базы).

Dreamfall:

И пара вопросов:

  • У ключей, у которых в базе нет статистики по частотности - это значит нулевая частотность прямых вхождений и частотность такая, что и смотреть на них не стоит?
  • Искать можно как-то по сокращенным словам, например жен* обув* ?

Мы запрашивали частотности у Яндекс.Вордстат по всем ключевым словам в базе, если нет статистики, то значит, Яндекс ничего не вернул. Но мы часто тестировали слова без частотностей и видели, что во многих случаях - это нормальные НЧ (поэтому мы их и оставили в базе), просто у Яндекса есть некий порог, только после которого он начинает показывать статистику для запрашиваемых словосочетаний.

Поиск в базе по части слова с заменой остальных символов звездочкой у нас спрашивали - уже есть в планах.

A1
На сайте с 14.09.2012
Offline
82
#66
Bukvarix:

В Key Collector есть три подхода к составлению групп - один на основе поисковой выдачи, другой - на основе общих корней, третий - комбинация этих двух. В нашем случае - с учетом размеров базы - парсить поисковую выдачу по такому количеству словосочетаний будет крайне сложно и дорого, поэтому мы можем воспользоваться вторым подходом (на основе общих корней) или придумать что-то свое. Мы понимаем, что группировка тоже востребована, и в наших планах эта функция есть, но приоритеты у нас сейчас другие, до группировки очередь дойдет намного позже.

Очень бы хотел вам предложить реализацию группировки ключей как здесь http://serp.advse.ru/keywords , описание алгоритма http://serp.advse.ru/wordstat/help . Для нахождения минус-слов ОЧЕНЬ удобно. Только на этом сервисе данный инструмент медленно работает, из за чего пользоваться не удобно. Но принцип работы инструмента, как мне кажется, толковый. Для работы инструмента нужны собственно ключи и базовая частота по ним. Так как у вас софт шустрый+ключи имеют частоту, то возможно у вас получиться это реализовать.

По поводу предложений удаления из базы ключей с ошибками - для контекста они ведь также нужны.

Огромное спасибо за ваш софт!!

Bukvarix
На сайте с 27.02.2013
Offline
134
#67
aleksandr1205:
Очень бы хотел вам предложить реализацию группировки ключей как здесь http://serp.advse.ru/keywords , описание алгоритма http://serp.advse.ru/wordstat/help . Для нахождения минус-слов ОЧЕНЬ удобно. Только на этом сервисе данный инструмент медленно работает, из за чего пользоваться не удобно. Но принцип работы инструмента, как мне кажется, толковый. Для работы инструмента нужны собственно ключи и базовая частота по ним. Так как у вас софт шустрый+ключи имеют частоту, то возможно у вас получиться это реализовать.

Спасибо за идею, такой алгоритм группировки выглядит вполне разумным. Мы знаем, что группировка нужна, но мы к ней подойдем позже, сейчас заняты сортировкой, фильтрацией, обновленим базы.

aleksandr1205:
По поводу предложений удаления из базы ключей с ошибками - для контекста они ведь также нужны.

Мы планируем дополнительно фильтровать не ключи с устойчивыми орфографическими ошибками, а ключи-дубликаты, которые отличаются падежами, оставив только один наиболее правильный вариант (например, для фразы из двух слов - 'имени прилагательного + имени существительного' - нужно оставить только вариант, когда оба слова в именительном падеже). Т.е. речь шла о дополниельной фильтрации мусора, а не об удалении слов с орфографическими ошибками, которые мы мусором не считаем.

aleksandr1205:
Огромное спасибо за ваш софт!!

Большое спасибо за отзыв и предложения, очень рады, что программа вам понравилась!

F
На сайте с 15.03.2014
Offline
16
#68

Bukvarix, добрый день!

спасибо за проделанный труд!

сорри, но что-то с утра туплю.. подскажите плиз...

скачал весь архив.. (11 архивов)

а как их корректно установить (распаковать)...

при распаковке предлагает перезаписывать базу, но это, по идее, неправильно...

или я что-то не так делаю?

спасибо

Bukvarix
На сайте с 27.02.2013
Offline
134
#69
find:
Bukvarix, добрый день!
спасибо за проделанный труд!

Пожалуйста, вам тоже спасибо за интерес к программе.

find:

сорри, но что-то с утра туплю.. подскажите плиз...
скачал весь архив.. (11 архивов)

а как их корректно установить (распаковать)...
при распаковке предлагает перезаписывать базу, но это, по идее, неправильно...
или я что-то не так делаю?

спасибо

Достаточно стать на первую часть архива (bukvarix.part01.rar) в вашем архиваторе (7-zip, WinRar и т.д.) и нажать "Распаковать" или "Извлечь" (надпись будет зависеть от используемого вами архиватора). При распаковке следующие части архива (bukvarix.part02.rar, bukvarix.part03.rar и т.д.) распакуются автоматически, их отдельно распаковывать не нужно.

Так как сейчас непонятно что вы уже распаковали, а что нет - то при распаковке при вопросе перезаписи файлов согласитесь (чтобы гарантированно получить целостную распаковку).

После распаковки программа готова к работе - достаточно запустить Bukvarix.exe

Если что-то не получится - напишите в личку или на поддержку (support {at} bukvarix.com) - поможем.

N4
На сайте с 19.09.2008
Offline
264
#70

Отличная программа!

Конечно, сырая и с рядом недостатков, но для подбора ключевиков великолепна, при этом еще и бесплатна!

Раньше в основном в ручную анализировал, пробовал еще пользовался словоебом. Но оба варианта очень много времени отнимают.

Букварикс же практически мгновенно подобрал свыше 45 000 ключевиков, которые после экспорта в эксель можно уже анализировать, делать всякие фильтровки, сортировки, исключения.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий