Slajzer

Slajzer
Рейтинг
117
Регистрация
18.12.2005
consumer:
Всем привет.

Помогите решить проблему: есть каталог сайтов, хочется сортировать в нем сайты по тИЦ и pr. Хочется написать программу, которая будет каждую неделю пересчитывать (определять текущее значение и менять его в нашей базе) эти значения. Для этого нужно использовать какие-то внешние сервисы, которые предоставляют соответствующую информацию. В идеале это должен быть веб-сервис который выплевывает xml файл с информацией для заданого сайта. Кто-нибудь знает такие сервисы (сайты)? Важно чтобы формат выдаваемых данных был постоянен долгое время (чтобы не переписывать свою парсилку).
Можно в принципе пользоваться такими сайтами как http://pr-cy.ru/, но они выплевывают инфу в html, а не xml, + дизайн сайта может поменяться и программу-парсер прийдется переписывать, и время существевания такого сайта под вопросом.

Кто чем может помочь по этому вопросу?

http://1ya.ru/?action=viewUseful&id=10

New_Angel:
(а сам будет потихоньку избавляться от непотных беков :) ))))

Некоторые уже это давно поняли и юзали :) вот теперь когда все в курсе пойдут всякие сервисы и далекие от оптимизации люди опять будут тупо все скупать :(

aka352:
Непота - нет! Нет, потому что быть не может в принципе. Фильтрация ссылок - процесс автоматический. И никакой, даже самый гениальный алгоритм фильтрации не даст 100% гарантии, что данная ссылка/ссылочный блок/страница/сайт является искусственным и требует полной фильтрации. А непот - это 100% фильтрация. Если это и можно сделать, то исключительно при участии человека.

Скажем штук 30 внешних ссылок в строчку разделенных запятой причем в самом низу страницы мелким шрифтом такое автоматически можно определить. Да и ходят слухи что есть разный непот полный не полный-

- можно предположить что в фильтре есть какие то критерии например которые я описал выше и исходя из этих критерий расчитываеться видимость ссылки для пользователя затем на каждую ссылку даеться процент передачи веса (ИМХО)

Кстати из этого можно сказать что всяческое выделение ссылки прибавляет вес и это вполне логично.

Это только догадки...

ru_big:
KindGood, Все правильно.
Но как раз на сателлитах это и прокатит.
А на сайтах с PR>4 тИЦ>1500 нет. Т.к. если ссылок будет всего 5-7, то их стоимость увеличится в 5-7 раз.
Для наглядности, пример: ссылка с PR=6 тИЦ=3500 стоит 70$. Вы готовы будете за такую ссылку платить 490$?

Чем меньше ссылок тем больше вес так что цена себя оправдывает. если PR=6 тИЦ=3500 5 внешних за 400-500$ купил бы, это даже проще.

3 место :( там можно по голосу в сутки отдавать, так что все по второму кругу, а то обидно получиться

Yu$t:
продаю Black_list 8940 кат. стоимость 5 вмз.
ася девять четыри ноль пять восемь восемь
мыло yys(гав)mail.ru

По каким критериям сайты попали в ваш бек лист?

Pitch когда сделаете расширенный? или дайте хелп по языкам запросов.

Тогда возможно оптимизаторы будут у вас искать :)

Даже если и узнаете алгоритм то все равно придется анализировать и думать головой.

РусИван:
В Таллине началась подготовка к переносу памятника советским воинам

Гавнюки! Как так можно

Всего: 712