- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, очень прошу не пинать и не минусовать, времени вообще нет, чтобы перерывать форум в поисках ценной инфы.
Вопрос в общем такой - нужно собирать позиции по ооооочень большому кол-ву ключевых слов, примерно раз в 3-4 дня, или раз в неделю.
Посоветуйте плиз десктопный или серверный вариант, чтобы не нужно было платить за каждую позицию, а можно было единоразово заплатить, и получить данный софт.
Семонитор, аллсаб, как я понимаю, с этим не справятся!
Заранее всем спасибо!
Присоединяйтесь к тестированию SERP Parser :) Программа готова к большим нагрузкам.
Обсуждение:
/ru/forum/537009
Домашняя страничка:
http://serpparser.com/ru
Присоединяйтесь к тестированию SERP Parser :) Программа готова к большим нагрузкам.
Обсуждение:
/ru/forum/537009
Домашняя страничка:
http://serpparser.com/ru
спасибо, счас правда некогда читать 13 страниц, можно кратенько - за счет чего сбор огромного кол-ва позиций? прокси?
спасибо, счас правда некогда читать 13 страниц, можно кратенько - за счет чего сбор огромного кол-ва позиций? прокси?
Поддержка прокси есть, но я рекомендую использовать сервис авто распознавания капчи и работать на локальном подключении. Единственная проблема - Yahoo, для него нужны прокси.
Поддержка прокси есть, но я рекомендую использовать сервис авто распознавания капчи и работать на локальном подключении. Единственная проблема - Yahoo, для него нужны прокси.
яху не нужен
по распознаванию капчи - это ж платить за это нужно?)
Да, за 1000 каптч 1$. Капчу яндекс просит через каждые 40-50 страниц. Гугл по разному, но по наблюдениям гораздо реже яндекса.
Юзайте Сеолиб ;)
seolib.ru
тут и яху, и белорусь, и россия с регионами, и украина.
Вот этот посмотрите
Юзайте Сеолиб ;)
seolib.ru
тут и яху, и белорусь, и россия с регионами, и украина.
спасибо, посмотрим, хотя там все таки платить по сути за каждый ключ нужно
Wellzewool добавил 14-12-2010 в 18:42
Вот этот посмотрите
а каким образом преодолеваются баны поисковиков при массовой проверке слов? ничего на сайте не увидел, но вроде интересная штука
All Submitter
Se Monitor
Можно любые шаблоны настроить и с каптчей проблем нет особо.
All Submitter
Se Monitor
Можно любые шаблоны настроить и с каптчей проблем нет особо.
Originally Posted by Zizizi
при загрузке 10 000 кеев пи нажатии кнопки страт сразу вылетает ошибка и программа закрывается, есть ли возможность исправить это?
К сожалению на такие объемы программа не рассчитана, исходим из 500-800 слов на проект максимум
вот что пишут про семонитор)
а если паузы настраивать, то этож ооочень долго проверка будет идти?