- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Skу, пригодна. Пользуйтесь проксями.
zsaz, чтобы избежать блокировки в будущем, установите задержки и паузы между блоками запросов, это настраивается в меню
Инструменты\Настройки\Движки\Google
Задержки: от 3000 до 5000
Паузы: через каждые 50 фраз пауза 30 секунд
Чем выше эти значения тем меньше вероятность блокировки.
---------- Добавлено 12.03.2013 в 08:36 ----------
Skу, перед покупкой, Вы можете опробовать весь функционал программы, бесплатно, в течении 14 дней.
Здравствуйте!
Программа очень интересна, хотелось бы приобрести... вопрос - пригодна ли программа для мониторинга большого количества ключевых запросов для 1-го проекта (1500-2000 и более на 1 сайт) ?!
Я вчера проверил более 3000 запросов. Так что проблем нет.... правда бан в гугле получил, но это я настроек не делал. Сейчас настроил, надеюсь больше бана не будет.
Я вчера проверил более 3000 запросов. Так что проблем нет.... правда бан в гугле получил, но это я настроек не делал. Сейчас настроил, надеюсь больше бана не будет.
... спасибо за ответ! Очень интересует:
а) 3000 запросов проверялось сразу в скольких ПС?!
б) За какое время они проверились?!
2 byterus, скачал программу... Функционал - супер! Во всем программа очень нравится... за исключением скорости работы ... :(
Поставил на сканирование ~2400 запросов, выбрал 3 ПС (G,Y,M), 33 потока... программа показала расчетное время до окончания - более суток (и это без задержек)! Такая скорость никуда не годится 🙅
В связи с этим вопрос - я что-то не так делаю с настройками и программа может сканить быстрее или это её нормальный режим...?!
Skу, попробуйте работать в 10 потоков, 33 слишком много, не все системы способны справиться с такими нагрузками. Если еще не настраивали, то настройте антивирус
http://serpparser.ru/doc_firewall_options.html
антивирус может существенно снизить скорость работы.
... спасибо за ответ! Очень интересует:
а) 3000 запросов проверялось сразу в скольких ПС?!
б) За какое время они проверились?!
2 byterus, скачал программу... Функционал - супер! Во всем программа очень нравится... за исключением скорости работы ... :(
Поставил на сканирование ~2400 запросов, выбрал 3 ПС (G,Y,M), 33 потока... программа показала расчетное время до окончания - более суток (и это без задержек)! Такая скорость никуда не годится 🙅
В связи с этим вопрос - я что-то не так делаю с настройками и программа может сканить быстрее или это её нормальный режим...?!
Я проверял в 2 ПС. Проверял 2200 запросов, потом 500 и еще остатки.
Так вот, 2200 проверилось менее получаса - это 100%. Настройки были дефолтными (без задержек и прочего). Проверялось в 10 потоков.
Внедрите пожалуйста функционал проверка позиций по определенной поисковой системе. Мне допустим только гугл надо проверять ежедневно.
kostiknc, перенес вверх в туду листе, скоро будет.
zsaz, чтобы избежать блокировки в будущем, установите задержки и паузы между блоками запросов, это настраивается в меню
Инструменты\Настройки\Движки\Google
Задержки: от 3000 до 5000
Паузы: через каждые 50 фраз пауза 30 секунд
Чем выше эти значения тем меньше вероятность блокировки.
Настроил программу таким образом.
За 2 часа 15 минут проверил около 5500 запросов в двух поисковых системах (итого почти 11000). Проверял 100 позиций до первого вхождения (вхождений почти не было, т.к. сайт молодой)
В общем меня эта программка радует все больше и больше.
А теперь пожелание: Я переношу URL для групировки. Получаю список уникальных урлов. Как мне его получить в текстовом виде?
А то пришлось получать все урлы, а потом с помощью сторонних программ удалять дубли. Не очень удобно.
zsaz, экспортировать группировку к сожалению нельзя:( Задача не самая популярная и Ваше решение воспользоваться сторонней программой - будет лучшим.