Эй, авторитетные спецы по Гуглу, ну отпишитесь что ли в этой теме, а то меня уже запинали! Я нихрена не понимаю в СЕО, но я очень зато хорошо разбираюсь в математике, слава богу Физтех заканчивал, но объяснить принцип расчета ПР СЕО-шным языком у меня как-то совсем не получается. Переведите что ли...
Блин, ну что тут непонятного? Пусть на момент начала пересчета ПР имеется некоторый мгновенный снимок, а по простому кэш, фиксирующий, кто и на кого ссылается. На этот же момент времени каждому сайту присваивается некое начальное значение ПР, судя по всему нулевое, хотя это не принципиально, тут важно что всем это начальное значение присваивается одинаковое. Далее, на основании ссылок считается первая итерация (получаем уже разные для разных сайтов значения), и так далее, делается куча итераций, до тех пор пока изменение от очередного шага не сделается чрезвычайно малым. А при таком алгоритме это рано или поздно произойдет, такие алгоритмы называют сходящимися - результат не зависит от заданных начальных значений. То есть итоговый ПР будет зависеть от числа ссылок на Ваш сайт, а также от ссылок на сайты ссылающиеся на Ваш сайт, и.т.д. Так как Вы купили ссылки с сайтов, на которые очень много ссылок - то вот так вот по цепочке косвенно и на Вас дофига ссылаются.
Далее, убираем покупные высокопиаристые ссылки. Дожидаемся очередного пересчета - теперь уже на сайт ссылаются только сайты из Вашей же сетки, тогда как при первом расчете грубо говоря весь инет ссылался - за счет купленных ссылок. Ну я не знаю как еще объяснить, по моему тут все достаточно очевидно.
Формулу для расчета смотри по ссылке:
http://www.bdbd.ru/articles/what_is_googles_pagerank_part_two.htm
На самом деле я видел кучу вариантов этой формулы, слегка различающихся, но всегда вида PR = C1 + C2*(SUM(...)). Так что начальный ПР берется из константы С1. Только не надо забывать, что проделывается большое кол-во итераций (смотри опять же статью по ссылке), при этом алгоритм сходящийся, и от заданных начальных значений ПР итог не будет зависеть. Человеку, влепившему мне минус в рему, очень советую самому сначала изучить вопрос. Материалов по алгоритму расчета опубликовано достаточно.
Ну алгоритм то итерационный известен. Неизвестны конкретные коэффициенты, фильтры там всякие - но это совершенно не меняет сути. Получить ПР предложенным методом - можно. Сохранить при следующем пересчете, когда накачивающие ссылки уже убраны - нельзя. Собственно, предложена самая обыкновенная и тривиальная перелинковка, и эффект от нее будет ровно в зависимости от того, сколько страниц в этой перелинковке задействовано.
Да, сможете.
Нет! Еще раз, тут основная Ваша ошибка в том, что Вы полагаете что на момент начала пересчета ПР у Вас будут сайты с ПР10, накачанные внешними ссылками. А это не так, при начале пересчета ПР всех сайтов обнуляется (хотя можно и любой другой величине приравнять, это не важно), и считается по новой. И если ссылок от высокопиаристых доноров нет - хрен Вы чего получите. Еще раз повторю, в теории Вы почти правы, но только для практической реализации такого реактора нужно ОЧЕНЬ много сайтов (примерно как в индексе Гугла). И при этом внешние ссылки на них нафиг не нужны.
На самом деле вообще совершенно не важно с какого значения начинать расчет. Алгоритм устойчивый и сходящийся, в начале можно задать вообще произвольные значения, но их влияние будет убывать с каждой следующей итерацией, и в конце концов получится то что должно получиться.
Тем не менее, в рассуждениях ТС есть здравое зерно, более того, я бы сказал что с математической точки зрения он совершенно прав, но только в практическом плане ситуацию придется довести до абсурда, чтоб получить желаемый результат. А именно, перелинковкой собственных сайтов действительно в теории можно получить ПР10, но... для этого этих самых собственных сайтов должно быть ОЧЕНЬ много. По порядку величины - столько, сколько в Гугловском индексе. И, кстати, покупать при этом ссылки с каких-то еще сайтов совершенно не нужно.
Да, у меня библиотека топокарт плотно засела на первом месте. Ссылки не покупалшись, прогонял через 1ПС, правда исключить тут полностью ссылочное нельзя - появилось некоторое количество естественных ссылок на сайт.
Да вроде не с чего ему, он уже давно PR4, и никаких сильных новых беков не замечал. Хотя конечно мог и прозевать что-то, но маловероятно это.
У меня еще круче, было ноль, стало 5. Почти по всем датацентрам. Думал будет 3, на 4 почти не надеялся, а тут такое! Зато англоязычное зеркало этого же сайта, сидящее в зоне EU - так на нуле и залипо. Хотя там у меня больше надежд на 4 было.
Ну да, тулбар действительно то ноль показывает, то пять, но по датацентрам то уже почти все пятерку кажут - неужто еще упасть может? А я уж обрадовался...