Анализатор позиций Яндекса.

123 4
МБ
На сайте с 09.06.2007
Offline
2
2797

Сразу оговорюсь - уверен, что данная тема не раз поднималась на форуме, но хотелось бы узнать как сейчас наиболее удобно решить данный вопрос.

Перед фирмой стоит задача - написать сервис, который выдавал бы результаты по позициям сайтов клиентов. Значит надо парсить Яшу (бесплатный xml - не вариант, слишком мало запросов дозволено).

Хочется определиться со способом.

Читали, что кто-то делает ретранслятор Яндекса на каком-то левом хостинге (скажем, запрос через curl, рандомный user-agent). И его уже парсит со своего сервера через рандомные промежутки времени (скажем, в пределах 30 секунд). Если банят - то просто переносят ретранслятор на др. хостинг (задача минут 30), но банить должны по логике не сразу.

Другой вариант (и думаю более широко используемый) - прокси. Но тут свои вопросы - надо постоянно где-то выуживать работающие (конечно, как вариант можно купить какой-нить скрипт, что будет сам выдавать списки, но всё же это лишние хлопоты и затраты).

Так же наверно возможны какие финты, если поместить подобный сервис на сайт в рекламной сети Яндекса и соответственно пользоваться радостями бесконечного кол-ва запросов к xml. Но ведь сервис закрытый и накликивать толком из него ничего не будут (только с сайта) и думаю есть большая опасность, что быстро выгонять из рекламной сети, что не есть хорошо.

Хотелось бы услышать комментарии по этим способам или может быть что-то упущено?

andyzzz
На сайте с 17.05.2007
Offline
67
#1
Михаил Б.:
Сразу оговорюсь - уверен, что данная тема не раз поднималась на форуме, но хотелось бы узнать как сейчас наиболее удобно решить данный вопрос.

Перед фирмой стоит задача - написать сервис, который выдавал бы результаты по позициям сайтов клиентов. Значит надо парсить Яшу (бесплатный xml - не вариант, слишком мало запросов дозволено).

Хочется определиться со способом.
Читали, что кто-то делает ретранслятор Яндекса на каком-то левом хостинге (скажем, запрос через curl, рандомный user-agent). И его уже парсит со своего сервера через рандомные промежутки времени (скажем, в пределах 30 секунд). Если банят - то просто переносят ретранслятор на др. хостинг (задача минут 30), но банить должны по логике не сразу.

Другой вариант (и думаю более широко используемый) - прокси. Но тут свои вопросы - надо постоянно где-то выуживать работающие (конечно, как вариант можно купить какой-нить скрипт, что будет сам выдавать списки, но всё же это лишние хлопоты и затраты).

Так же наверно возможны какие финты, если поместить подобный сервис на сайт в рекламной сети Яндекса и соответственно пользоваться радостями бесконечного кол-ва запросов к xml. Но ведь сервис закрытый и накликивать толком из него ничего не будут (только с сайта) и думаю есть большая опасность, что быстро выгонять из рекламной сети, что не есть хорошо.

Хотелось бы услышать комментарии по этим способам или может быть что-то упущено?

mail.ru парсить нужно

T.R.O.N
На сайте с 18.05.2004
Offline
314
#2
Михаил Б.:
(скажем, запрос через curl, рандомный user-agent)

Быстрый бан.

Михаил Б.:
(и думаю более широко используемый) - прокси.

Анонимные - яша не пускает, закрытые, замучаетесь создавать, ибо читайте выше.

Михаил Б.:
бесплатный xml - не вариант, слишком мало запросов дозволено)

Единственный разумный вариант.

1000 в сутки - это уйма.., если подходить с головой (ведь апы не ежедневно) и , не забывайте, что это для одного IP. А получить 64-128-256 IP - это как 2 пальца об асфальт (если конечно фирма - это не я + мой однокласник). И еще - читайте внимательней правило пользования XML.... О 1000 в суки уже давно речь не идет.

andyzzz:
mail.ru парсить нужно

банят так-же

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
Ilya_1982
На сайте с 03.11.2006
Offline
101
#3

А вот, кстати, сразу вопрос. Если Яндексу платить какую-то сумму рублей в месяц за то, что бы он предоставил неограниченной количество запросов по XML? Это реально?

deepslam
На сайте с 09.05.2006
Offline
204
#4

Есть еще вариант - делать запрос с помощью ajax , получается , что запрос будет идти с клиента, с реальными данными. Тогда можно и с помощью Yandex.XML, т.к. 30 000 на клиента нормально.

Удаление вирусов на сайте (http://www.virusonsite.ru) | Scripto CMS - бесплатная система управления сайтом (http://www.scripto-cms.ru) |Профессиональный скрипт каталога ссылок , статей, фирм и объявлений! (http://www.scripto.ru) | Уникальный скрипт для публикации контента (http://publisher.scripto.ru)
Sayros
На сайте с 01.05.2006
Offline
50
#5
Ilya_1982:
А вот, кстати, сразу вопрос. Если Яндексу платить какую-то сумму рублей в месяц за то, что бы он предоставил неограниченной количество запросов по XML? Это реально?

Как договоритесь.

505 44 38
T.R.O.N
На сайте с 18.05.2004
Offline
314
#6

deepslam,

Ощущение такое, что Вы слышали тольок красивые слова - ajax, xml, но очень туго понимаете как это работает.

Запрос всеравно придется формировать с сервера, в т.к. для xml нужно регить IP.

Ilya_1982:
Это реально?

Да

deepslam
На сайте с 09.05.2006
Offline
204
#7

T.R.O.N, почему формировать с сервера? Если сделать запрос с клиента, получить код html и уже на свой сервер отправить? Это реально, поверьте.

deepslam
На сайте с 09.05.2006
Offline
204
#8

Получить либо html код, если к обычному яндексу запрос, либо xml, если к Яндекс.XML

М
На сайте с 01.12.2005
Offline
73
#9
deepslam:
T.R.O.N, почему формировать с сервера? Если сделать запрос с клиента, получить код html и уже на свой сервер отправить? Это реально, поверьте.

Про политики безопасности браузера слышали? В частности same origin...

Cервис для оптимизаторов Optimizer Desktop (http://jdev.ru/od/?utm_source=forum.se.ru&utm_medium=signature): мониторинг позиций, учет ссылок. Программа для оптимизаторов и вебмастеров OptiSuit (http://optisuit.ru/?utm_source=forum.se.ru&utm_medium=signature): Optimizer Desktop на Вашем компьютере
T
На сайте с 15.11.2004
Offline
36
#10

Идея с ajax - интересная. Но есть ограничение технологии под названием "сервер-источник". Код ajax клиента не может работать как с локальной файловой системой, так и не может устаналивать сетевое соединение ни с одним сервером за исключением того, откуда был скопирован. Выход ставить на свой сервер некую "прокси", которая общается с веб-сервисами, но тогда вы не получаете разные IP ( что и было основной целью )

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий