- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Не претензия!!!
Можно поинтересоваться (в разрешенных границах), как для определенного URL происходит сбор его ключей? Я почему спрашиваю: сайт с 900+ страниц (вполне живой ИМ) в ВК-нише - и всего 65 ключей... сомнения вызывает сравнение двух цифр
Спасибо за отличный сервис да еще и в бесплатном доступе! Радует, что постоянно обновляете программу, работаете над ее улучшением. Успехов!
Большое спасибо за отзыв и за пожелание успеха! Мы вам также желаем всяческих успехов, в том числе и в проектах, для которых вы используете наш сервис :)
Не претензия!!!
Можно поинтересоваться (в разрешенных границах), как для определенного URL происходит сбор его ключей? Я почему спрашиваю: сайт с 900+ страниц (вполне живой ИМ) в ВК-нише - и всего 65 ключей... сомнения вызывает сравнение двух цифр
Можно. Процедура такова, что для большого количества ключевых слов, отсортированных в порядке убывания популярности, запрашивается и парсится выдача первых 50 результатов. Т.е. процесс обратный, не ключевые слова запрашиваются для домена, а домен находится по запросу наиболее популярных ключевых слов.
Если для какого-то домена слов мало, то можно предположить, что это слова, по которым конкуренция высока, и сайт за пределами первых 50 результатов, а слова, по которым сайт на высоких позициях, не очень популярны (не входят в топ 130 млн. для Яндекс Москвы). Либо сайт совсем недавно получил позиции в топ 50 по словам, в таком случае есть шанс, что в следующем апдейте вы увидите больше слов для сайта - в конце недели мы обновим базу поисковой выдачи для Москвы (Яндекс и Гугл), проверьте.
Если для какого-то домена слов мало, то можно предположить, что это слова, по которым конкуренция высока, и сайт за пределами первых 50 результатов,
Благодарствуем за ответ, барин! В моем случае ситуация именно такова и пояснение по технологии объясняет, почему это так
Добрый день,
Сегодня мы обновили данные выдачи для баз Яндекс Москва и Google Москва. Обновление проводилось с середины декабря прошлого года по конец января текущего года. База Яндекс Москва сформирована по 130 млн. уникальных поисковых запросов, а Google Москва - по 50 млн.
Выдачу в базах других регионов планируем обновить на следующей неделе.
Воспользуйтесь сервисами подбора ключевых слов по домену конкурента:
http://www.bukvarix.com/site/
Хорошая у Вас программа, давно пользуюсь, жаль, что раньше о ней не знал
Спасибо за обновление. Ждем следующее.
Добрый день,
Как мы предварительно анонсировали на прошлой неделе, мы подготовили апдейт баз Яндекс Россия, Яндекс Санкт-Петербург, а также Google Киев. Обновлена выдача, процесс обновления занял вторую половину декабря 2017 года и весь январь 2018 г.
В Нормализаторе дополнительно к возможности удалять некоторые символы в начале слов мы добавили возможность удаления символов "?", "!" и "." в конце слов в списке.
Приглашаем воспользоваться поиском слов по доменам в обновленных базах, а также улучшенным Нормализатором:
http://www.bukvarix.com/site/
http://www.bukvarix.com/normalizer/
Добрый день. Увидел "Убрать дубликаты" в интерфейсе программы (сам использую ДТ вариант).
Это удаление неявных дублей? Не могу найти у вас в теме, когда это было введено.
Заранее спасибо за ответ.
PS. И за Букварикс спасибо - лучший инструмент в этой нише ИМХО.
Добрый день. Увидел "Убрать дубликаты" в интерфейсе программы (сам использую ДТ вариант).
Это удаление неявных дублей? Не могу найти у вас в теме, когда это было введено.
Заранее спасибо за ответ.
PS. И за Букварикс спасибо - лучший инструмент в этой нише ИМХО.
Полных дубликатов ни в онлайн-версии программы, ни в десктопной версии нет, но есть перестановки и несогласованные словосочетания, которые принято называть нечеткими или неявными дубликатами. Чистка от нечетких дубликатов у нас по-прежнему в планах, мы еще не подошли к решению этой задачи.
В Нормализаторе можно работать с разными списками, в том числе полученными не из Букварикса. Также при других преобразованиях (например, удалениях пробелов или начальных/конечных символов) можно получить полные дубликаты фраз - именно они удаляются в Нормализаторе.
Спасибо за отзыв! :)
Чистка от нечетких дубликатов у нас по-прежнему в планах, мы еще не подошли к решению этой задачи.
Было бы здорово. Приходится чистить в КК - получается очень долго.