- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
там же есть вкладка "яндекс директ" - там ставишь галку "сбор для статистики вордстат" или что-то подобное - и там просто отмечаешь, какие частотности надо собрать
---------- Добавлено 27.07.2016 в 10:01 ----------
ЗЫ: разработчику и автору огромное спасибо, лучше софта для сбора семантики пока не бьыло и не предвидется
А так, граната в руке бойца - опасное оружие, а в руках обезьяны...😂
там же есть вкладка "яндекс директ" - там ставишь галку "сбор для статистики вордстат" или что-то подобное - и там просто отмечаешь, какие частотности надо собрать
Написал в поддержку, сказали - нет такой функции, но учтут, что нужно) Так что не было такого..
Resett, фактически речь о планировщике задач? пока не внедрен
Пара вопросов про сбор данных через пользовательскую маску Яндекс Вордстат.
1. Я использую маску "[!QUERY]", насколько точно работает запрос со скобками? Иногда попадаются запросы, например с точной частотой "!" 75, а со скобками 0 и нет других вариантов запроса. Это выглядит странно. Можно ли полагаться на данные со скобками?
2. Можно ли данные со скобками как-то использовать в инструменте "Анализ неявных дублей", что он отмечал галочкой те словоформы, у которых значение в [] меньше.
Типа:
купить ботинки 201
ботинки купить 41
Точная частотность у запросов одинаковая "!" = 242, а вот со скобками различается. Можно эту информацию использовать для отсеивания дублей?
а какое значение должно выводиться при запросе с []?
2. Можно ли данные со скобками как-то использовать в инструменте "Анализ неявных дублей", что он отмечал галочкой те словоформы, у которых значение в [] меньше.
Типа:
купить ботинки 201
ботинки купить 41
Точная частотность у запросов одинаковая "!" = 242, а вот со скобками различается. Можно эту информацию использовать для отсеивания дублей?
Можно. Ты сам там выбираешь по какому столбцу фильтровать дубли.
Голубая лагуна, через форму автозамены. Также при запуске программы в случае, когда она не принимает лицензию, написаны все контакты и способы получения лицензии.
1. Я использую маску "[!QUERY]", насколько точно работает запрос со скобками? Иногда попадаются запросы, например с точной частотой "!" 75, а со скобками 0 и нет других вариантов запроса. Это выглядит странно. Можно ли полагаться на данные со скобками?
Если есть сомнения, то нужно проверять на конкретных запросах.
Скажем так, снятое через вордстат, доверять можно. Снятое через директ, увы, бывают косяки, когда директ выдает без учета спец запросов. То есть в самом директе отображается лажа.
а какое значение должно выводиться при запросе с []?
https://yandex.ru/support/direct/efficiency/refine-keywords.xml
Оператор «[ ]» (квадратные скобки). Позволяет зафиксировать порядок слов в поисковом запросе. При этом учитываются все словоформы и стоп-слова.
Фактически, на мой взгляд, предпочтительна конструкция "[!]" , но опять же , я могу говорить лишь о своих задачах.
Подскажите пож-та, что на данный момент актуальней: прокси + анти капча или XML лимиты?
Необходимо:
1) один раз в день парсить 1-5 тысяч запросов
2) снимать с полученных данных все виды частотности
3) 1 раз в неделю/две недели анализ позиций на 1-5 тысяч позиций.
Можно взять проксей и не париться с лимитами, главное таймауты нормально настроить и задача вполне решаема...
Например частоты снимать и 5 проксей хватит,с позициями чуть сложнее, нужны будут больше таймауты между запросами и скорее всего понадобится Антикаптча, а может и нет, хорошие настройки нужны)
Есть 20 групп запросов, как собрать частотности по всем группам сразу? Не ожидая каждый раз завершения задания по одной группе, чтобы запустить следующую.