- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Существует ли какой-то софт или возможно сервис, который позволял бы определять частотности по wordstat для большого списка запросов?
насколько огромные списки запросов?
Здравствуйте!
Существует ли какой-то софт или возможно сервис, который позволял бы определять частотности по wordstat для большого списка запросов?
KeyCollector, Топвизор такое умеет. Если список очень большой, то советую коллектором Директ парсить
callidus, ну очень большие, тысячи. руками не совладать :)
Через KeyCollector и Директ. Но на больших объёмах лезет очень много капчи. Возможно, поможет проверка через ApiShops средствами Key Collector, но я сам не пробовал.
Есть еще такая мысль - у Букварикса вроде были частотности к запросам в базе. Можно выгрузить оттуда запросы по ключам и с помощью "повторяющихся значений" в Excel найти нужные.
При таких проверках (ApiShops/Букварикс) конечно вряд ли данные будут на 100% актуальными, но единственная известная мне альтернатива - Директ и Key Collector.
callidus, ну очень большие, тысячи. руками не совладать :)
Из бесплатных решений до 5000 запросов, может словоеб справиться где то за сутки работы.
Тоже интересно. Даже сотню НЧ гонять ручками через яшу вордстат утомительно.
SERP Parser снимает частотность через Директ, если разово или на пробу, то бесплатного периода в две недели должно хватить, вот видео-инструкция по сбору частотности
http://www.youtube.com/watch?v=OeTGANqod-I
Плюсую Словоебу - неплохо снимает частотность. Таки раскошелюсь на Кей коллектор.
TopSite - 1000 запросов в час к Вордстату:
Насколько я в курсе - у MOAB'а есть база, уже проверенная по вордстату: http://moab.pro/moab-suggest-pro