Парирую
www.google.com/ PR=10/10
dmoz.org PR=10/10
То есть одинаковые PR получаются.
Гораздо логичнее сравнивать домены по PR известных Гуглю главных страниц, а не по оценочным значениям для неизвестных. И где написано, что для оценки должно понижаться на 1/10? Может, понижается на некую другую величину, а затем нормируется, и в результате округления могут получаться разные значения. Шкала-то очень грубая. Всего 10 единиц.
А это зависит от фантазии и красноречия стукача. Чем нелепее ложь, тем легче в нее верят люди.
По-моему, это ущербный путь. Шкала нормированная, поэтому 10/10 - это потолок. А вся загвоздка в том, что Гугль для любой неизвестной ему страницы первого уровня вложенности (типа http://www.google.com/page.html) на своем сайте тоже показывает десятку, то есть не понижает PR главной страницы на единицу.
Почему он это делает - это другой вопрос. В конце концов, для своего сайта Гугль мог сделать и исключение в выичслении показаний бара для неизвестных ему страниц. И лезть в третьи-четвертые уровни вложенности совершенно не обязательно было.
Тут в голову пришла интересная мысль. Все стукачи, они ведь решают те же задачи, что и оптимизаторы - повышение позиций своего сайта. Только в результате их "работы" релевантность выдачи в понимании поисковика уменьшается, в то время как в результате работы оптимизаторов - увеличивается. Поясню. Допустим, на первом месте по некоему запросу стоит сайт, релевантность которого оценивается поисковиком как некая числовая величина, допустим N. Оптимизатор оптимизирует другой сайт, в результате чего, тот попадает на первое место и имеет значение релевантности по алгоритму поисковика большее, чем N, т.е. релевантность выдачи в терминах алгоритма данного поисковика увеличилась. Стукач стучит на эти оба сайта, их банят, в результате на первом месте оказывается его сайт с числовым значением релевантности меньшим, чем N. То есть релевантность выдачи в терминах алгоритма данного поисковика уменьшилась. Вот и задумайтесь, является ли целью разработчиков поисковика (в данном случае - Яндекса) увеличение релевантности выдачи, если они находятся в явной конфронтации с оптимизаторами и поощряют стукачество. :)
Да, те ребята явно не имеют представления о том, как расчитывается PR и как он показывается в баре. А ведь многие новички могут прочесть то обсуждение и получить неверное представление о природе PR. А потом засыпят нас вопросами. :)
Насколько я понял была попытка "облагородить" листинг сайта в выдаче Рамблера, так как он, в отличие от Яндекса и Гугля, не показывает пользователю содержимое тега description. Вот, по сути, этот description и был написан цветом фона.
Яндекс же ясно дал понять - правил нет и не будет. Все решает модератор на основе личных представлений о том, что хорошо, а что плохо. А эти представления могут быть весьма и весьма специфическими. Опять же, многое зависит от того, насколько красноречиво оформлен стук. При желании человека (а модератор Яндекса ведь - человек :) ) можно убедить в том, что чёрное - это белое. Так что никто не застрахован...
Мне кажется, неплохим выходом для подобных ситуаций было бы введение поддержки Яндексом нестандарного тега по типу <noindex>, т.е. запрет именно Яндексу части кода страницы для индексации. В принципе, мог бы подойти и <noindex>, но ведь он еще и Рамблером поддерживается.
Понял. Нагоняется траффик, стало быть...
Согласен. Я выводил сайт в десятку Гугля по очень "вкусным" запросам без листинга в ДМОЗе и Яху. А когда появился листинг в ДМОЗе, то на позиции сайта это не оказало ровным счетом никакого влияния.