Мишган

Рейтинг
73
Регистрация
01.12.2005

upyrj, я бы по другому делал, а именно через набор функций:


Функция getProjects
Параметры login, password
Результат: массив объектов типа Project (id, name, url, comission)

Функция createProject
Параметры: login, password, name, url, comission
Результаты: объект типа Project

Функция getProjectPages
...

Взаимодействие можно организовать как через REST протокол, так и через SOAP. Первый производительнее, второй универсальнее и поэтому предпочтительней.

Завтра днем могу выкатить WSDL для вебсервиса через который можно будет управлять своими проектами на биржах.

upyrj:
На то XML и Extensible Markup Language: определимся с базой, а там и управление можно добавить.

Вот хотелось бы вебсервисами нормальными это сделать, для того чтобы можно было стандартные библиотеки для этого юзать а не парсить руками xml

DrJeans, так хотелось бы не только статистику получать но и управлять эккаунтом через сервис.

Avelon:
напишите ТЗ - рассмотрим

WSDL с комментариями пойдет?

Слава Шевцов:
Цитирование - разрешено. Но не копирование на свой диск и не демонстрация "сохранено в кеше".

Копирование на диск то разрешено. А вот с кэшем конечно есть нюансы. В этом случае конечно интересы пользователя вступают в конфликт с интересами правообладателя, и естественно это можно назвать типичным пиратством. Однако показ кэша это не основная задача поисковика, а побочный продукт от которого можно отказаться.

И вообще, если следовать это логике, то вебархив ваще нереально нарушает авторские права, копируя целиком весь сайт.

Да не нарушаются поисковиками никакие авторские права, так как цитирование в информационных целях разрешено. А вообще поисковик в ответ на запрос юзера генерирует свой уникальный документ защищенный авторским правом и состоящий из цитат из источников, в которых по мнению поисковика содержится ответ на запрос пользователя.

Я думаю что нужно не лепить самодельный хмл а описать нормальные вебсервисы для работы с биржами ссылок

-=Илья=-:
Тем не менее, это не поисковик, а система контекстной рекламы - дело не в технологии, а в статусе и способе получения дохода. Вы не отвечаете за то, что на Вас ставят сколь угодно дурацкие ссылки и вы не отвечаете за то, насколько хороший траф идёт на сайт. Но вы отвечаете за то, что творится у вас на сайте и вы отвечаете за то, какой траф ваш сайт гонит на адсенс.

Вы не отвечаете за то кто на вас ставит ссылки, но и поисковая система не отвечает за то что вашего сайта не будет в выдаче. Если читали то гугл щас накладывает штрафные санкции за использование покупных ссылок и на донора и на реципиента.

robots.txt это правила хорошего тона а не руководство к действию для роботов. Если какая либо информация открыта для просмотра неограниченному кругу лиц, то кто угодно может ее цитировать, а если кто угодно может то и поисковики могут.

Sla:
Всё это никак не поможет.
Банить айпишники - если скликивают диалапщики, то можно легко забанить всю подсеть какого-нибудь провайдера.
Если скликивают с прокси-серверов, то, как я понимаю, Бегун и сам ведет список прокси-серверов и регулярно его пополняет.
Менять структуру размещения, снимать рекламу с каких-то страниц - не понимаю вообще какой в этом смысл - ну будут скликивать с других страниц и что?

Согласен. Я думаю бегуну стоило бы поступать как РСЯ или эдсенсу, а именно равномерно списывать левые клики, зачтенные в предыдущие дни. Все равно это никто не заметит, так как мало кто использует учет кликов, а уж стоимость клика вообще тяжело вытащить....

Всего: 874