- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Какой самый эффективный способ подбора ключей?
думаю выборка из базы woeb, какие еть еще способы, кто за что?
KeyCollector... База Пастухова..
Или вы что-то иное имеете ввиду?
Какой самый эффективный способ подбора ключей?
думаю выборка из базы woeb, какие еть еще способы, кто за что?
Есть бесплатные парсеры СлобоЕб , словодер. Если вручную то Яндекс Вордстат или Мутаген тоже воспользоваться.
Отправлено с моего LG-D855 через Tapatalk
Букварикс - подбор ключевых слов
www.bukvarix.com
Бесплатная БД с огромным количеством ключей. Минусы - регион не указать, база имеет актуальность на дату ее сбора. Плюсы - практически мгновенная выборка по тысячам ключей.
Сейчас пользуюсь программой Словоёб (бесплатно), парсю левую колонку вордстата по заданному начальному списку, отметаю запросы с низкой частотностью. По собранному ядру собираю частотность "!*" и данные конкуренции. Остальное довожу в таблице excel.
Основная изюминка - умение оценивать конкурентность собранных запросов. Основываясь на ней и точной частотности нужно оставлять трафиковые запросы.:)
Не сочтите за рекламу, но - сервис keys.so :) В конце можете найти пример файла, который можно получить.
Если изучить конкурентов, то можно наковырять тысячи ключей которые к тому же уже разбиты по страницам
И ссылка на ЦСВ файл :)
А я по старинке кей-коллектором с проксиками :)
Староват я, да? :))
Яндекс Вордстат
Что меня удивляет, все говорят о ключевиках. А насчет качества текстов на сайтах ни слова. Имхо, тексты более важный момент.
prodvigator/spywords
Пробегитесь по конкурентам и соберите семантику по статьям в топе.
Я вообще делаю так:
собираю основные ключи для статей (верхушки, так сказать), а хвост добираю таким образом - собираю спайвордсом урлы из топ-5 и из этих урлов выцепляю ключи, которые в топ-20 болтаются. Получается вполне сносные постраничные ядра (нужно чистить, конечно, от дублей и мусора, зато не пропадают "хвосты" и синонимичные запросы + нет проблем с омонимией). Что-то вроде обратной кластеризации, т.е. я не готовый набор запросов раскидываю по группам, а, наоборот, по исходным запросам собираю группы.
Но это оптимальный вариант в случае статейника (когда ключей туева куча и на кластеризацию разориться можно). Если ключей немного, возможно, лучше кластеризовать уже собранную базу