- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть база кейвордов (5000) отдельной тематики, нужно узнать позиции 1 сайта по всем этим кейвордам в Google. Каким образом можно решить данную задачу? SOAP API ключ есть в наличии. Может кто знает какую софтинку чекалку позиций или веб-сервис, чтобы можно было работать через SOAP API? Всё стандартные чекалки зарываются на 200-400 чеке, когда Google выплёвывает капчу или просто выдаёт многозначное "We are sorry ..." :laugh:
С помощью программы Site-Auditor
С помощью программы Site-Auditor
Она к сожалению, зарывается на около 400 чеке, даже если в гугл вбить что-нибудь для теста, то он выплюнет капчу.
Задержки между запросами побольше и будет все нормально.
Site-Auditor если достаточно до 50 позиции. Если нужно больше, то чтото платное вроде Semonitor
Задержки между запросами побольше и будет все нормально.
Site-Auditor если достаточно до 50 позиции. Если нужно больше, то чтото платное вроде Semonitor
Если бы всё решалось только одной устанвкой "задержки" всё было бы гораздо проще. А Site-Auditor жидковато чекает, да, только до 50 - этого мало. А сами вы этот Seomonitor использовали? Какой алгоритм определения позиций он использует?
Если бы всё решалось только одной устанвкой "задержки" всё было бы гораздо проще. А Site-Auditor жидковато чекает, да, только до 50 - этого мало. А сами вы этот Seomonitor использовали? Какой алгоритм определения позиций он использует?
Сам пользуюсь.
По поводу алгоритма не совсем понял. Чекает выдачу по нужным ключам и поисковым системам. Настройки очень обширные.
Можете демку скачать и попробовать.
Я думаю так. 5000 ключевиков это уж очень и очень много! Уменьшите количество. Если не желаете, то сайт всё равно не может находится по всем этим ключевикам вообще в поиске, так как я уверен что это низкочастотки, а сайт под них не заточен.
Какой из этого можно сделать вывод? Начинайте продвигать по этим ключевикам сайт и потом через счётчики посмотрите по каким к вам запросам заходят люди, вот и будите знать что дало результат, а что нет.
А сами вы этот Seomonitor использовали?
Его многие используют. По опыту могу сказать, что 5000 за раз нереально, надо разбить на несколько раз, в защите IP выставить задержки от 10 до 20 сек, а то и больше, и перерывы на пол-часа, и молотить он у Вас будет такое количество не меньше чем сутки.
Зачем Вам, интересно, позиции по такому количеству запросов?
Заказываешь скрипт, который будет чекать через прокся твои позиции, покупаешь экаунт для проксей (тебе наливают по 2000 проксей в день, рабочих 200-250), и получаешь удовольствие читая отчеты.
Его многие используют. По опыту могу сказать, что 5000 за раз нереально, надо разбить на несколько раз, в защите IP выставить задержки от 10 до 20 сек, а то и больше, и перерывы на пол-часа, и молотить он у Вас будет такое количество не меньше чем сутки.
Зачем Вам, интересно, позиции по такому количеству запросов?
Очень увесистый проект, 5000 это только основная часть, не покрывающая всех кейвордов по которым ранкится сайт, где есть хоть минимум траффика. По поводу алгоритма и задержки понятно. Но я так и не понял использует ли он SOAP API или на прямую ломится через search форму и парсит результаты? Дело в том что 1 SOAP API key имеет квоту на 1000 серчей в сутки. Моё количество ключей с лихвой покрывает кол-во всех кейвордов, только я никак не могу найти сервис или программу, где их можно было бы использовать. К тому же не мало важен вопрос безопасности и кражи этих ключей. Т.е. чтобы они не отсылались "налево". :)
yorick добавил 23.12.2008 в 21:34
Заказываешь скрипт, который будет чекать через прокся твои позиции, покупаешь экаунт для проксей (тебе наливают по 2000 проксей в день, рабочих 200-250), и получаешь удовольствие читая отчеты.
Дело в том, что если 1 раз позиция через японскую проксю прочекается, второй раз через китайскую, в отчетах то чехарда образуется. Вам так не кажется?
А статсы по реферерам разве нету? Я например уже не смотрю вообще.мало ли где сайт может быть в серпе, если кей трафа не несёт? А так по гуглорефу зашёл и сразу видишь где сайт и по какому кею.