SEO-Proxy.ru - решение для парсинга поисковых систем

[Удален]
21070

Как известно, поисковые системы пытаются сопротивляться постоянному сканированию со стороны seo-сервисов и seo-специалистов, и, надо признать, небезуспешно. В последнее время особенно лютует яндекс, который с помощью постоянно выдаваемой капчи приносит много мирового зла в итак недобрую среду :) Поэтому было принято решение разработать сервис, позволяющий дистанцировать сеошников от данного ахтунга.

Это не прокси (хотя в названии домена и присутствует это непотребное слово), а xml-rpc интерфейс для работы с функциями, которые на данный момент следующие (и дополняются по заявкам):

1. Получение индексированных страниц сайта в яндексе;
2. Получение количества индексированных страниц сайта в яндексе;
3. Получение проиндексированности конкретной страницы в яндексе;
4. Получение выдачи страницы поиска по запросу;
5. Получение страницы wordstat по запросу;
6. Получение тиц сайта;
7. Получение pr страницы.

Система оплаты - позапросная, чем больше количество запросов в сутки - тем меньше стоит один запрос. Ознакомиться можно на странице http://www.seo-proxy.ru/tarifs/

Как это работает? Существует очень большое количество подсетей, через которые по определенному алгоритму идут обращения к пс. Стандартному сервису такие мощности недоступны в принципе. Сейчас система был протестирована на нескольких миллионах запросах в сутки - все ок.

В данный момент система находится в тестовом режиме, регистрация только по инвайтам. Особо интересуют средне-крупные потребители. По всем вопросам пишите сюда, в личку, на mihakuzmin@gmail.com или info@seo-proxy.ru

С уважением, Михаил Кузьмин и Co :)

SS
На сайте с 14.04.2006
Offline
110
#1
Miha Kuzmin (KMY):

1. Получение индексированных страниц сайта в яндексе;
sp.get_yandex_domain_index
Собирает выдачу с Яндeкса по домену - то есть проиндексированные страницы.

Сколько проиндексированных страниц за 1 запрос отдает эта функция?

Сколько проиндексированных страниц, максимум, может выдать эта функция ?

[Удален]
#2

sp.get_yandex_domain_index

(array) sp.get_yandex_domain_index((char) domain [, (int) depth = 0])

Собирает выдачу с Яндeкса по домену - то есть проиндексированные страницы. Значение "depth" - количество страниц (по 10 результатов) с которых необходимо собрать выдачу, по умолчанию все. ВНИМАНИЕ! Оплачивается каждый запрос! То есть если у вас на сайте 3000 страниц, то оплата произойдет за 3000/10=300 запросов!

# Возвращает пользователю массив: URL (string) - УРЛ страницы

# TITLE (string) - Тайтл страницы

# SNIPET (string) - Снипет страницы

Alex91
На сайте с 30.12.2007
Offline
258
#3
Miha Kuzmin (KMY):
То есть если у вас на сайте 3000 страниц, то оплата произойдет за 3000/10=300 запросов!

Miha Kuzmin (KMY), он больше 1000 сможет выжать? еще, наверно, тупой вопрос - почему идет деление по 10, а не по 50 на страницу?

зы.от инвайта не отказался бы

C Уважением, Алексей
SS
На сайте с 14.04.2006
Offline
110
#4
Alex91:
почему идет деление по 10, а не по 50 на страницу?

присоединяюсь к вопросу.

[Удален]
#5

Alex91, в яндексе при простом сканировании страниц с сайта больше тысячи в принципе не выжмешь.

почему идет деление по 10, а не по 50 на страницу?

Подсети жалко. При 50 на страницу резко возрастает процент выдачи капчи, то есть нужно по крайней мере в несколько раз больше подсетей. С соответствующим возрастанием цены в эти несколько раз.

Alex91
На сайте с 30.12.2007
Offline
258
#6

Miha Kuzmin (KMY), ясно, Вы просто в примере 3к привели. я и удивился

про инвайт в силе, плюс, справа в форме, думаю стоит сделать кнопку "зарегистрироваться", ибо сразу и не сообразишь, что она сверху :)

зызы. а faq с примерами будет? или где взять это?

sp.get_yandex_domain_index

(array) sp.get_yandex_domain_index((char) domain [, (int) depth = 0])

Собирает выдачу с Яндeкса по домену - то есть проиндексированные страницы. Значение "depth" - количество страниц (по 10 результатов) с которых необходимо собрать выдачу, по умолчанию все. ВНИМАНИЕ! Оплачивается каждый запрос! То есть если у вас на сайте 3000 страниц, то оплата произойдет за 3000/10=300 запросов!

# Возвращает пользователю массив: URL (string) - УРЛ страницы
# TITLE (string) - Тайтл страницы
# SNIPET (string) - Снипет страницы
[Удален]
#7
справа в форме, думаю стоит сделать кнопку "зарегистрироваться", ибо сразу и не сообразишь, что она сверху

Нормальный диз выкатим после нг, это просто функционал сейчас)

а faq с примерами будет? или где взять это?

Инвайт в личке, там строка меню "Взаимодействие" и примеры есть для php.

Только мерчант пока не подключен, исключительно напрямую на кошельки.

SS
На сайте с 14.04.2006
Offline
110
#8
Miha Kuzmin (KMY):

Подсети жалко. При 50 на страницу резко возрастает процент выдачи капчи, то есть нужно по крайней мере в несколько раз больше подсетей. С соответствующим возрастанием цены в эти несколько раз.

Правильно ли я понимаю, вы парсите Яндекс напрямую а не через XML?

[Удален]
#9

SEO.Slash, абсолютно правильно.

[Удален]
#10

Михаил, нужен инвайт и возможность оплаты по безналу.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий