Serlif

Рейтинг
46
Регистрация
19.03.2004

Есть один способ увидеть вИЦ! Подаете заявку на грант Яндекса по какой-нибудь из тематик улучшения поиска, вам предоставляют хост-граф рунета, вы пишете программу просчета вИЦ этого графа, запускаете, долго ждете (тут все зависит от оптимальности реализации алгоритма, но мне кажется без распределенных вычислений время будет идти на дни...), получаете никому не видный вИЦ. Хотя конечно коэффициент затухания, используемый в Яндекс вам неизвестен, но поскольку он константа (вроде как) для всей сети, то по крайней мере какой-то относительный вИЦ для сравнения вы получите.... Вот такой вот путь, вполне реальный! 😂

Правка. Посмотрел снова про гранты Яндекса, к сожалению они предоставляют имеенно хост-граф. То есть связи между сайтами, а не между страницами. Так что вИЦа все-таки даже и так не получить. :( Можно конечно получить некий ИЦ, но он как и тИЦ будет говорить лишь о сайте, и мало будет говорить о странице....

Я в свое время тоже не нашел структуризованной инфы. Понял, что видимо большинство таких возможностей недокументированны. По Яndex-у можно получить часть информации из документации к Яndex.XML. Из того, что знаю сам (по Яndex-у):

#link="www.mysite.ru*" - ищет ссылки на сайт

anchor#link="www.mysite.ru" [keywords] - ищет ссылки с ключевыми словами

добавляем #host="www.hersite.ru" - ограничиваем область поиска сайтом www.hersite.ru

добавляем < cat = (XXXXXXXX), ищем либо в конкретной ветке Я.Каталога, либо в конкретном регионе (ссылки на номера категорий есть в FAQ к Яndex.XML)

Ну... все, что знал - сказал! (с) Михалыч :)

Как писал Professor
Serlif, правду говоришь, только вот выбор сat - дело владельца сайта, насколько его усекать ... ну я бы еще синтакис немного подправил ...

Можно чуть подробнее про синтаксис, я придумал только добавить звездочку:

#link="www.yandex.ru*" << cat=(9000289)

Что то еще нужно поправить?

Как писал AiK
Почитал я этот топик, помучал свой склероз и пришёл к выводу, что весь этот эксперимент - чистой воды профанация. Ни один вменяемый поисковик не будет держать в своём индексе страницы, на которые невозможно попасть по ссылкам.

Как-то на наш сайт стояла ссылка со страницы производителя. Но переход на страницу был организован через выпадающее меню, результат работы скрипта и видимо выдачу им location. То есть страницы в индексе не было. Яндекс не смог ее найти по ссылкам. Я добавил страницу через AddUrl и этот бэклинк висел у меня несколько месяцев. И сейчас страница есть в базе, просто ссылку там убрали. Могу дать адрес в личку.

Самый простой способ - поиск обратных ссылок с ограничением по ветке каталога Яndex. Например запрос "#link="www.yandex.ru" << cat=(9000289)" ищет ссылки на Яndex в ветке "Поисковые системы". Как выбрать cat, читайте в FAQ по Яndex.XML. А для сайтов не включенных в Я.К все равно сложно говорить о той тематике, которой ее видит Яndex.

Как писал wolf

На самом деле, чтобы выполнялось условие, что сумма PR всех страниц, находящихся в базе поисковика равна 1, должно быть не 1-d, а (1-d)/N, где N - число документов в базе поисковика.

Интересное и разумное условие, ни разу не встретил (может конечно смотрел в книгу, а видел фигу)... Нда, думал что реальный PR, это большие целые числа, а оно вона как... Интересно какой точности используют поисковики переменные для хранения PR? И интересно какое вещественное значение PR например у морды Гугля? Поди не меньше 0,33... ;)

Как писал Orlis
мешает само определение "вИц" :)

По формуле PR кстати для страницы, на которую никто не ссылается PR = 1-d, что как раз по определению больше нуля. Но в данном эксперименте вроде как все равно, ибо обе страницы не имеют бэклинков... Но может d у Яndex имеет небольшую дисперсию? Типа если сайт хорош (по iseg его знает каким параметрам), то затухание на переход чуть меньше...

Как писал bazuka


сайты в первой десятке по высокочастотником полюбому в яке, но далеко не фает, что на платной основе.
Их мог просто залистить туда сам Яндекс

Запрос "кондиционер", обговоренный много раз и я думаю, что это признанный тяжелый высокочастотник! ;) Первое место - viptek.ru - в каталоге не описан. тИЦ -1100. Вот....

Как писал Pia
Serlif, а идея кстати хорошая. Очень хорошая. Просто супер. Как я сам не допер?

Согласен на 🍻 ! :) А в принципе конечно, очень интересно увидеть результаты вида:

Запрос: валенки

Место №1. Страница: www.site.com/valenki.html

PR страницы: 6

тИЦ сайта: 1000

Ссылок на сайт с кейвордами: 555

Из них

с PR6 - 111 (из них из той же ветки каталога - 50)

с PR5 - 111 (из них из той же ветки каталога - 50)

с PR4 - 111 (из них из той же ветки каталога - 50)

c PR3 - 111 (из них из той же ветки каталога - 50)

c PR2 - 110 (из них из той же ветки каталога - 50)

c PR1 - 1 (из них из той же ветки каталога - 0)

c PR0 - 0 (из них из той же ветки каталога - 0)

Из этой информации можно получить немало интересных выводов. ;) О цене вывода сайта по запросу опять же... Буду работать и думаю что-то такое буду иметь рано или поздно...

Как писал Pia
Да, дорого бы я отдал за такую сортировку :)
Думаю, нет тут никаких закономерностей. К сожалению.

Насколько дорого? ;)

Вообщем то я почему начал тему - начал делать анализатор позиций по запросам. Идея - выдавать расклад по ситуации в 10-ке (5-ке, 3-ке в зависимости от желания) по конкретному запросу. Соответственно для анализа позиций с точки зрения ссылочного ранжирования хочется видеть расклад по количеству и PR-стости ссылок. А в жирных запросах, жирные сайты на первых местах имеют по 20.000 - 30.000 бэклинков с ключевиком. Анализировать все десятки тысяч бэклинков тяжело по двум причинам: сервис делаю на основе Яndex.XML, а там жесткие ограничения на бесплатное количество запросов - 200 штук в день (то есть при ограничении в 20 документов на странице - имеем максимум запас на анализ 40.000 бэклинков), во вторых программно определять PR 20.000 страниц за раз - тоже думаю не очень получиться, так как наверняка есть какой-то лимит на количество запросов в единицу времени с одного адреса.

Вот в такой вот собственно ситуации и хотелось бы анализировать только несколько (50-100) первых ссылок. Но я тоже уже склоняюсь к мнению (покапавшись в результатх таких запросов), что ссылки выдаются "как попало"... Так что путей тут 3:

- платный Яndex.XML

- парсинг HTML результатов Яndex, а-ля Semonitor

- умный и медленный сервис, который делает обсчет одной десятки за несколько суток... :D

Всего: 60