Интересный сервис http://www.seo-guy.com/seo-tools/google-pr.php
вводим нужный запрос и верхний предел PR - получаем сайты с искомыми результатами .... ну теперь видно сразу у кого надо клянчить PR
Это точно !
Даже 9 женщин не родят ребенка за 1 месяц.
А он его и не выплескивает, он понижает для него ТиЦ :-)
Я с Вашего позволения попробую обосновать :-)
Взаимные ссылки-это всегда договоренность. Поисковик, как третье лицо в этой договоренности не учавствует и с высокой долей правды может догадываться,что это скорее не договоренность, а сговор.
Ссылка в одну сторону на 90% более правдива, чем по обмену ИМХО
Давайте рассуждать из логики разумности и забудем на минутку об оптимизации как таковой. Я-обычный владелец сайта и естественно встретив подобный мне ресурс с интересной темой неотраженной у меня на сайте хочу информировать о нем своих посетителей - я ставлю на его ссылку с моего сайта. Мне да-же в голову не приходит просить поставить ссылку взамен - а зачем она мне ? Я- же об оптимизации даже слыхом не слыхал. И еще интересный момент - я ссылку поставлю не на главную моего коллеги, а на страничку с интересной на мой взгляд информацией, что собственно добровольно сделает и коллега на свое усмотрение. Вот и получаеться что ссылки получились незакольцованы по главной, что возможно .... повторяю возможно и понравиться алгоритму yandex и он присвоит высокий ТиЦ.
Опять-же если представить сайт в виде меню в ресторане, то оптимизаторы как правило ссылаються на обложку этого меню, что согласитесь не отражает точного адреса рекомендуемого блюда и ценность конечно такой ссылки снижаеться.
Если смотреть с позиции поисковика, то он заинтересован в развлетвленности и логической последовательности информации, а не в сетях подобных друг другу сайтов.... все наверное видели как ученые ссылаються друг на друга в своих трудах - вот где релевантность запросу очень высокая с позиции читателя этих трудов.
Вопрос остался только в том, что так - ли это на самом деле, как я это вижу .. на что я не могу пока дать точного ответа .... но мой опыт все больше и больше склоняет меня к правильности вышесказанного рассуждения :)
Pr можно и здесь http://www.pagerank.net/pagerank-checker/
померять пачкой - не забудь воткнуть цифирки от несанкционированных сценариев
только внутренним ощущением по своим подопечным сайтам - нет технической возможности перелопатить большой обьем данных для более точного утверждения.
Я всегда однобоко оптимизирую сайт ( вернее часть своей работы)- мне важна точность определения причин связанная только с контентом и мета-тегами. Можно наплодить много разнообразного контента и наставить на сайт тысячи ссылок с каталогов, но это может делать каждый и конечно результат положительный какой-то будет. Но ИМХО при точности достаточно поставить по настоящему нужных 20 ссылок на сайт и создать один точный контент под запрос и получить более точное попадание по нужному запрос - в этом случае есть элемент подконтрольности выдачи.
В таких случаях ( а они не редки ) , я обычно исхожу из пословицы " нет худа без добра " и пристально отслеживаю статистику повторных посещений дорисовывая свой опыт по теме " Причины и скорость умирания интернет-проектов "
Похоже на то, что используеться несколько алгоритмов определения выдачи по разным секторам или отраслям. Может-быть идет поиск или разработка оптимального варианта