- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане, подскажите как правильно собирать ключевые фразы через wordstat?
Как собираю я:
- вбиваю широкий запрос;
- минусую не нужные слова ( чищу список );
- закидываю в словоеб и считаю частотности;
- убираю слова с нулевыми частотностями типа "" и "!";
- группирую оставшиеся.
НО, мне сказали, что нужно делать тоже самое, ТОЛЬКО не считая частотности типа "" и "!". Спросил почему, ответили следующее: "потому что собирается широкая семантика и некоторые запросы, хоть и показываются точная частотность 0 все равно иногда проскакивают"
Является ли это верным или нет? Теорретически понимаю, что если запрос низкочастный с нулевой частотность, то даже не присутствуя в тексте страницы все равно подтянется в выдачу, если продвигать СЧ, поэтому смысл включать его в семантику ?
я собираю кей коллектором все( и вордстат и адвордс и подсказки) , потом считаю частотности "!слово !слово" и отсеиваю нулевики , также подключаю метрику и оттуда тоже беру все что есть
я собираю кей коллектором все( и вордстат и адвордс и подсказки) , потом считаю частотности "!слово !слово" и отсеиваю нулевики , также подключаю метрику и оттуда тоже беру все что есть
Вот я тоже считал, что так правильно делать. Но мне сказали, что для сбора широкой семантики нужно не считать частотности "!слово !слово" , а просто минусовать не нужные фразы, дальше уже разбивать на группы.
надо глубину парсинга в кк поставить, или по каждому потенциально хвостатому запросу (после первого сбора) отдельно собрать частоту
Уважаемые форумчане, подскажите как правильно собирать ключевые фразы через wordstat?
Как собираю я:
- вбиваю широкий запрос;
- минусую не нужные слова ( чищу список );
- закидываю в словоеб и считаю частотности;
- убираю слова с нулевыми частотностями типа "" и "!";
- группирую оставшиеся.
НО, мне сказали, что нужно делать тоже самое, ТОЛЬКО не считая частотности типа "" и "!". Спросил почему, ответили следующее: "потому что собирается широкая семантика и некоторые запросы, хоть и показываются точная частотность 0 все равно иногда проскакивают"
Является ли это верным или нет? Теорретически понимаю, что если запрос низкочастный с нулевой частотность, то даже не присутствуя в тексте страницы все равно подтянется в выдачу, если продвигать СЧ, поэтому смысл включать его в семантику ?
Что такое "широкая семантика" и какая от нее польза для конверсии?
http://wordstat.yandex.ru/#!/?words=%22!%D1%81%D0%BA%D0%B0%D1%87%D0%B0%D1%82%D1%8C%20!2007%22
Что такое "широкая семантика" и какая от нее польза для конверсии?
http://wordstat.yandex.ru/#!/?words=%22!%D1%81%D0%BA%D0%B0%D1%87%D0%B0%D1%82%D1%8C%20!2007%22
Сам не знаю зачем, но на фирме, в которой работаю так делаю и собирают кучу ключей за короткий срок, а я не успеваю, потому что дополнительно смотрю частотности "" и "!"
Сам не знаю зачем, но на фирме, в которой работаю так делаю и собирают кучу ключей за короткий срок, а я не успеваю, потому что дополнительно смотрю частотности "" и "!"
Мне в самом начале тоже так говорили.
Но я всегда собираю все полностью, включая парсинг вхождений ключа в тайтлах серпа и количество главных страниц + анализирую по своим параметрам.
Оптимизировать нужно под то, что ищут. Эта т.н. "широкая семантика", конечно, может подтянуть рандомную низкочастотку, но чаще всего это хождение по ложному пути, когда ты продвигаешь запрос, условно, с частотой 1200; "" 5; "!" 0; вместо 80; "" 70; "!" 70.
Как собираю я:
МБ стоит попробовать дешевый софт типа кей коллектора? время и нервы сэкономите
МБ стоит попробовать дешевый софт типа кей коллектора? время и нервы сэкономите
Я описал просто сам процесс, а собираю я пока что в Словоебе, думаю приобрести key collector.
думаю приобрести key collector.
это правильно :), вообще кейколлектор обновляется чуть ли не каждый день, думаю не пожалеете
Верно. На частотку лучше не ориентироваться, тк она вам выдается за промежуток в один месяц, что не отображает реального положения. Вы собираете не семантику в данном случае, а поисковые цели и маркеры целей. Вот когда в глубь распарсите тогда будет семантика.