- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
было бы неплохо, если бы программа умела определять конкурентность запросов в виде кол-ва страниц и/или KEI ..
Возникла проблемка, может кто сталкивался. Определяю урл, которые в ПС по интересным мне запросам. В Я, почему-то пустой лист на выходе?
Иконка в программе релевантные страницы.
Уважаемые пользователи, вышел новый билд программы 109. Пофиксены все ране описанные проблемы, с потоками, Win 7, добавлена бесперебойность.
Важно: добавилась новая функция, парсинг ключевых слов "По поисковым фразам"
Думаю это последний релиз до выхода официального билда, и релиза на сайте, тогда стоимость программы повысится до 85$.
Скачать новый билд.
А на мой вопрос?
Вижу сделали восстановление соединения, после ошибки. Радует, спасибо :)
Вот только 1 беда, скачал новую версию, установил. В итоге мало того, что сбились все настройки, так еще и сбились все аккаунты(сайты). Но это мелочи, хотя конечно и неприятные.
p.s. большая просьба к тем, что собирает статистику с больших сайтов(более 10000 запросов) без прокси, поделитесь, пожалуйста, настройками(таймаутами).
А на мой вопрос?
Все работает отлично, если я правильно понял о чем вы писали.
Если в новом билде у вас та же ошибка, пишите на почту, указав какой модуль используете, вашу ОС, и подробно описанную ситуацию (какие чекеры, настройки и т.д.)
Да, забыл сказать, в новой версии старые проекты не совместимы.
С таким количеством желательно конечно прокси, но раз нет возможности, то для яндекса как минимум 15-25 сек, li.ru от 3 до 7, если использоваться Яндекс#1 то от 3 до 10 сек (но при использовании этого способа иногда неправильно определяет позиции по регионам).
SeWork, есть 2 вопроса, возможно глупых
Можно ли сделать так, что бы можно было указывать несколько аккаунтов для yandex xml. Я может чего то не понимаю, но вроде бы вполне можно после исчерпания запросов на 1 аккаунте переходить на другой.
И еще, можно ли через xml делать запросы в wordstat? Если да, то можно ли реализовать такую функцию?
1. Нет, запросы можно посылать только с зарегистрированного IP, второй аккаунт вам ничем не поможет.
2. Нет, xml не поддерживает wordstat
SeWork, уже и сам понял что по первому пункту сглупил :)
Еще вопрос, в этом посте вы писали про скрипт, который позволяет обходится без прокси. Он еще работает? Имеется ввиду с последней версией программы. Если да, то почему о нем нет информации на вашем сайте?
И если работает, то подскажите, как сделать правильнее. у меня есть VDS у firstvds.ru. На нем около 10-15 сайтов, каждый на разном ip. мне нужно ставить скрипт на каждый из этих доменов, или можно поставить на 1, а далее в программе прописывать:
http://site.ru/tw2.php?i=111.111.111.1
http://site.ru/tw2.php?i=111.111.111.2
будет ли так работать, или все таки ставить на каждый домен?
p.s. большая просьба к тем, что собирает статистику с больших сайтов(более 10000 запросов) без прокси, поделитесь, пожалуйста, настройками(таймаутами).
С таким количеством желательно конечно прокси, но раз нет возможности, то для яндекса как минимум 15-25 сек, li.ru от 3 до 7, если использоваться Яндекс#1 то от 3 до 10 сек (но при использовании этого способа иногда неправильно определяет позиции по регионам).
Пару месяцев назад снимал статистику в несколько сотен тысяч запросов - задержка на ли.ру 1.0-1.1 вполне нормально проходила. Касаемо использования на таких объёмах определения позиций - не совсем понятно, зачем оно нужно - парсить сотни тысяч МЧ :) (Микро Частотников). Вполне можно снять первую тысячу отдельно (с местами) и после, без парсинга ПС - полностью.