- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Частотность для Беларуси не правильная, вообще не правильная.... Нужно в итоге загонять в коллектор. /Но списки стоп слов хороши!
Titan681, да, цифры по частотности неточные. Я делал сравнение с актуальными данными Яндекса и цифры совпадают в плане относительных показателей, т.е. насколько количество показов одного запроса больше чем у другого оценить можно.
Ребята, должен признаться, вы крутые) Отличная база ключевых слов: по качеству намного превосходит Пастухова. Вам удалось добиться очень высокой скорости работы. Несомненный плюс - поддержка лемматизации (морфологии) запросов. Какой морфологической библиотекой пользуетесь?
Большое спасибо за добрые слова, мы, правда, хотим сделать очень полезный инструмент для подбора слов.
Для морфологии мы используем открытую разработку от aot.ru (http://aot.ru/)
Было бы здорово, если бы у вас было реализовано что-то вроде "анализа групп" (как в Key Collector)
В Key Collector есть три подхода к составлению групп - один на основе поисковой выдачи, другой - на основе общих корней, третий - комбинация этих двух. В нашем случае - с учетом размеров базы - парсить поисковую выдачу по такому количеству словосочетаний будет крайне сложно и дорого, поэтому мы можем воспользоваться вторым подходом (на основе общих корней) или придумать что-то свое. Мы понимаем, что группировка тоже востребована, и в наших планах эта функция есть, но приоритеты у нас сейчас другие, до группировки очередь дойдет намного позже.
вам не составит особого труда сделать анализ неявных дублей
За предложение по анализу неявных дублей спасибо, записали в планы.
Еще раз спасибо за отзыв и за пожелание успеха!
Частотность для Беларуси не правильная, вообще не правильная.... Нужно в итоге загонять в коллектор. /Но списки стоп слов хороши!
Данные и не могут совпадать, потому что вы проверяете сейчас, а база собиралась раньше. Вот пост, в котором мы дали развернутый ответ на этот вопрос: /ru/forum/877149
Базы такого объема всегда обновляются с задержкой. Поэтому метод, когда слова быстро подбираются Буквариксом, а частотности обновляются в Key Collector'e, является с нашей точки зрения оптимальным.
Titan681, да, цифры по частотности неточные. Я делал сравнение с актуальными данными Яндекса и цифры совпадают в плане относительных показателей, т.е. насколько количество показов одного запроса больше чем у другого оценить можно.
Спасибо за уточнение. Мы тоже считаем, что соотношения часто дают более ценную информацию для принятия решений, чем абсолютные цифры.
Конечно, есть очень текучие ниши, для которых нужна очень свежая информация, но в целом удельный вес таких ниш намного ниже, чем стабильных.
Мы рассчитываем на то, что каждый вебмастер понимает, с каким контентом он работает, и насколько ему будет подходить база Букварикс.
Программа хороша. Что бы хотелось/предложения:
И пара вопросов:
Dreamfall, спасибо за предложения и вопросы.
Программа хороша. Что бы хотелось/предложения:
Частотности от Гугл, улучшение фильтрации дублей и неправильных словоформ, возможность копирования большого количества строк через буфер обмена - это у нас в планах есть, в сторону бидов пока не смотрели, сейчас дорабатываем то, что спрашивают чаще всего (быстрая сортировка, фильтрация, обновление базы).
И пара вопросов:
Мы запрашивали частотности у Яндекс.Вордстат по всем ключевым словам в базе, если нет статистики, то значит, Яндекс ничего не вернул. Но мы часто тестировали слова без частотностей и видели, что во многих случаях - это нормальные НЧ (поэтому мы их и оставили в базе), просто у Яндекса есть некий порог, только после которого он начинает показывать статистику для запрашиваемых словосочетаний.
Поиск в базе по части слова с заменой остальных символов звездочкой у нас спрашивали - уже есть в планах.
В Key Collector есть три подхода к составлению групп - один на основе поисковой выдачи, другой - на основе общих корней, третий - комбинация этих двух. В нашем случае - с учетом размеров базы - парсить поисковую выдачу по такому количеству словосочетаний будет крайне сложно и дорого, поэтому мы можем воспользоваться вторым подходом (на основе общих корней) или придумать что-то свое. Мы понимаем, что группировка тоже востребована, и в наших планах эта функция есть, но приоритеты у нас сейчас другие, до группировки очередь дойдет намного позже.
Очень бы хотел вам предложить реализацию группировки ключей как здесь http://serp.advse.ru/keywords , описание алгоритма http://serp.advse.ru/wordstat/help . Для нахождения минус-слов ОЧЕНЬ удобно. Только на этом сервисе данный инструмент медленно работает, из за чего пользоваться не удобно. Но принцип работы инструмента, как мне кажется, толковый. Для работы инструмента нужны собственно ключи и базовая частота по ним. Так как у вас софт шустрый+ключи имеют частоту, то возможно у вас получиться это реализовать.
По поводу предложений удаления из базы ключей с ошибками - для контекста они ведь также нужны.
Огромное спасибо за ваш софт!!
Очень бы хотел вам предложить реализацию группировки ключей как здесь http://serp.advse.ru/keywords , описание алгоритма http://serp.advse.ru/wordstat/help . Для нахождения минус-слов ОЧЕНЬ удобно. Только на этом сервисе данный инструмент медленно работает, из за чего пользоваться не удобно. Но принцип работы инструмента, как мне кажется, толковый. Для работы инструмента нужны собственно ключи и базовая частота по ним. Так как у вас софт шустрый+ключи имеют частоту, то возможно у вас получиться это реализовать.
Спасибо за идею, такой алгоритм группировки выглядит вполне разумным. Мы знаем, что группировка нужна, но мы к ней подойдем позже, сейчас заняты сортировкой, фильтрацией, обновленим базы.
По поводу предложений удаления из базы ключей с ошибками - для контекста они ведь также нужны.
Мы планируем дополнительно фильтровать не ключи с устойчивыми орфографическими ошибками, а ключи-дубликаты, которые отличаются падежами, оставив только один наиболее правильный вариант (например, для фразы из двух слов - 'имени прилагательного + имени существительного' - нужно оставить только вариант, когда оба слова в именительном падеже). Т.е. речь шла о дополниельной фильтрации мусора, а не об удалении слов с орфографическими ошибками, которые мы мусором не считаем.
Огромное спасибо за ваш софт!!
Большое спасибо за отзыв и предложения, очень рады, что программа вам понравилась!
Bukvarix, добрый день!
спасибо за проделанный труд!
сорри, но что-то с утра туплю.. подскажите плиз...
скачал весь архив.. (11 архивов)
а как их корректно установить (распаковать)...
при распаковке предлагает перезаписывать базу, но это, по идее, неправильно...
или я что-то не так делаю?
спасибо
Bukvarix, добрый день!
спасибо за проделанный труд!
Пожалуйста, вам тоже спасибо за интерес к программе.
сорри, но что-то с утра туплю.. подскажите плиз...
скачал весь архив.. (11 архивов)
а как их корректно установить (распаковать)...
при распаковке предлагает перезаписывать базу, но это, по идее, неправильно...
или я что-то не так делаю?
спасибо
Достаточно стать на первую часть архива (bukvarix.part01.rar) в вашем архиваторе (7-zip, WinRar и т.д.) и нажать "Распаковать" или "Извлечь" (надпись будет зависеть от используемого вами архиватора). При распаковке следующие части архива (bukvarix.part02.rar, bukvarix.part03.rar и т.д.) распакуются автоматически, их отдельно распаковывать не нужно.
Так как сейчас непонятно что вы уже распаковали, а что нет - то при распаковке при вопросе перезаписи файлов согласитесь (чтобы гарантированно получить целостную распаковку).
После распаковки программа готова к работе - достаточно запустить Bukvarix.exe
Если что-то не получится - напишите в личку или на поддержку (support {at} bukvarix.com) - поможем.
Отличная программа!
Конечно, сырая и с рядом недостатков, но для подбора ключевиков великолепна, при этом еще и бесплатна!
Раньше в основном в ручную анализировал, пробовал еще пользовался словоебом. Но оба варианта очень много времени отнимают.
Букварикс же практически мгновенно подобрал свыше 45 000 ключевиков, которые после экспорта в эксель можно уже анализировать, делать всякие фильтровки, сортировки, исключения.