хотелось бы на реальных данных эмпирические ф-лы опробовать...
а если где-нить статистика сколько в среднем ссылок с PR4,5,6 на устредненную страницу с PR6? и сколько в среднем исходящих ссылок на страницах PR4,5,6 ?
PRbar = 10 + log(PRreal)
?
если только округление, и с учетом того что алгоритм запроса PR для любого сайта раскручен (http://scripts.xrenoder.com/) легко, работая по большому кол-ву сайов и фильтруя (усредняя) шумы округления полностью раскрутить алгоритм гугла, однако этого до сих пор даже хренодеру не удалось, вывод - там что-то более хитрое чем просто округление?
почему же - очень интересно! всплывают новые детали... приводятся более точные расчеты...
ну рядом стоящие PR5-PR6 можно линеаризировать с некоторой ошибкой которую можно уменьшить подобрав d. Надо бы пример скажем страницы с PR5 которая ЗАРАБОТАЛА свой PR за счет ссылок от страниц с PR0..3
То есть через ступень, тогда линеаризировать будет труднее. Похоже что в случае если в расчетах участвую только страницы с PRN и N+1 линейная модель может быть подогнана с помощью d под любой мыслимый вариант. Для опровержения линейной модели этом случае надо делать расчеты над группами однотипных страниц...тогда вариативность d было бы крайне трудно объяснить (страницы одной тематики и одного PR то d=const).
---
Конечно в реале вероятность ухода визитера для разных страниц разная и наверное и от времени суток зависит :-)
Cage в данном случае уже зная PR-ы страниц показал возможность подогнать d...но откуда тогда гугл узнает эти разные d для разных страниц до вычисления их PR?
to Cage:
Т.е. никакие оценки для d на его странице через d страниц с PR(bar)=0 не годятся.
А почему собственно? Была страница с PR0, d=0.8 - поставили на нее линк с PR6, получили что страница с PR5, и что теперь у нее и d изменится? с какой стати? (content=const конечно) - то есть d не зависит от PR страницы.
нет, я имел ввиду несколько другое... в подстраницах сайта если из них мало или нет выходов (ссылок) наружу иначе как на главную страницу какие бы разумные d не были произойдет накопление PR. Так как анти-синк есть то сумарный PR этих страниц достигнет некой величины и стабилизируется или будет колебатся около этой величниы или стремится к ней. Чем больше страниц тем больше накопится PR. И вот в час Х на всех страницах проставить исходящих линк на главную страницу! По идее на какое то время она должна сильно подняться в PR.
Верно?
или d/N ? там вообще Alpha/N ... и как бы это попроще без матриц?
какая конечная формула для итеративного расчета?
"decay factor 1-alpha limits the effect of rank sink".
Не понятно, лимитится в смысле накопление ранка не достигает бесконечности, но некоторая аккумуляция ранка все же происходит!
Вот поэтому cossack и добавляет 120 статей с 36000 линков?
То есть сначала накопить PR в петлях синков, а потом разом вылить на главную cтраницу?
попробуй поставить курсор мышки вот на эту ссылку rax.ru и один раз нажать на левую кнопку мышки.
:-)
студенты хочут от 400 в месяц, но никто не дает... пока...