- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрые форумчане, помогите решить задачу:
1. Есть софт, который раскручивается в социальных сетях и специальных каталогах. То есть для него созданы и оптимизированы конкретные страницы этих соц-сетей и каталогов (типа страницы в фэйсбуке, страницы в Google Play и тп.). И таких "чужих" страниц, которые продвигают товар может быть много.
2. Есть список запросов (ключевиков), по которым хочется увидеть эти страницы в поиске (например в Google USA).
3. Пересмотрел кучу сервисов типа semrush.com, allpositions.ru, megaindex.ru и тп, программы типа Key Collector, Yazzle и тп... большинство из них урезают адрес страницы и делают анализ основного домена сайта, что абсолютно не подходит. Они ориентированы или просто на подбор слов или на анализ конкретного сайта... а страницы - это второстепенное.
С помощью какого сервиса, скрипта или софта можно увидеть картину изменения позиций в поисковике для четко определенных адресов страниц разных сайтов по заданным ключевым словам?
Может не все адреса страниц сразу, а по отдельности, но чтобы можно было видеть динамику изменений позиций для этой страницы без необходимости выискивать эти данные, пересматривая кучу ненужной информации полученной по всему сайту типа Facebook :) И важна возможность гео-привязки запроса, например, анализ позиций только в Google USA.
Заранее спасибо за подсказки и идеи... писать специально скрипт под эту задачу не хочется, может где-то реализована такая возможность?
Нужны позиции в поисковой видемости (по которым переходят) или все?
Нужны позиции в поисковой видемости (по которым переходят) или все?
Просто видимость (не обязательно переходы), например в ТОП100 выдачи Google США, типа:
URL - httр://www.facebook.com/angrybirds
По ключевому слову "super game" - 35 позиция (+13 выше чем в прошлом месяце);
По ключевому слову "mega game" - отсутствует (в ТОП100);
По ключевому слову "best game" - 42 позиция (-3 ниже чем в прошлом месяце);
.....
И тп по каждому адресу в соответствии со списком ключевиков...
Наверное ничего нет. Если у Гугла что-то есть, то API для просмотра позиций для одного сайта. Можно написать программу с нужным функционалом, если такое API есть.
Наверное ничего нет. Если у Гугла что-то есть, то API для просмотра позиций для одного сайта. Можно написать программу с нужным функционалом, если такое API есть.
Спасибо за подсказки, кажется нашел - /ru/forum/537009 - изучаю сейчас...
Парсеров поисковых систем много. Но у них есть один минус - они запрещены правилами использования поисковых систем. Работают очень медлено.
Спасибо за подсказки, кажется нашел - /ru/forum/537009 - изучаю сейчас...
То, что дохтор прописал :) SerpParser рулит.
То, что дохтор прописал :) SerpParser рулит.
Да - прога супер, протестировал - то что нужно... так что проблема решена, спасибо за подсказки, тему можно закрывать...