"Как удержать вес PageRank внутри сайта?"

MaulNet
На сайте с 07.08.2005
Offline
348
1154

Процитирую один источник:

"Как удержать вес PageRank внутри сайта?

Рассказывая о сложных структурах, помогающих сохранить вес PageRank внутри сайта, Крис не упоминает о двух простых методах.

Первый предложен мной — использование JavaScript. Поисковики не индексируют его (причина довольно очевидна — интерпретация JS для каждой страницы потребует гигантские вычислительные ресурсы). Следовательно, любая внешняя ссылка, оформленная на JS будет нормально восприниматься пользователями (99% работают со включенным JS), но при этом не учитываться поисковиками, а, значит, и не принимать участие в расчетах PageRank. Таким образом, для поисковой машины ваш сайт будет без единой внешней ссылки, и проблема удержания веса исчезает полностью.

Второй метод не менее изящен и предложен самим Крисом. Если все внешние ссылки сосредоточены на нескольких страницах, то достаточно всего лишь запретить их индексацию с помощью файла robots.txt, и поисковая машина не будет знать, что у вас на сайте есть внешние ссылки.

Безусловно, такое поведение будет нечестным, если вы договариваетесь об обмене ссылками с каким-либо сайтом. Однако, во всех остальных случаях, когда вы ставите ссылки добровольно, чтобы сделать работу пользователей удобней, никто не мешает вам сохранить вес PageRank внутри сайта."

Насколько я понял, при использовании повсеместно JS - PR будет исключительно на главной странице? Неужели подобная практика дает увеличение общего трафика с Гугла? Всегда считал, что лишь внешнии ссылки на сайте необходимо выполнять через JS/редирект.

antono
На сайте с 12.07.2004
Offline
287
#1

При использовании Js ПР будет удерживаться не на главной страницы а внутри сайта, если вы конечно используете Js только для внешних ссылок.

D
На сайте с 15.11.2005
Offline
120
Dr_
#2
MaulNet:
при использовании повсеместно JS - PR будет исключительно на главной странице?

нет, в этом случае ПР просто не будет передаватся со страниц, для аккумулирования ПР на главной нужно сделать все ссылки с главной явой а ссылки внутренних страниц на главную обычными

W
На сайте с 18.06.2005
Offline
26
#3
Dr_:
нет, в этом случае ПР просто не будет передаватся со страниц, для аккумулирования ПР на главной нужно сделать все ссылки с главной явой а ссылки внутренних страниц на главную обычными

А у внутренних тогда откуда возьметься ПР? Кто на них будет ссылаться?

wolf
На сайте с 13.03.2001
Offline
1183
#4
Wellwalker:
А у внутренних тогда откуда возьметься ПР? Кто на них будет ссылаться?

У них будет минимальный PR - свободный член классической формулы, поделенный на кол-во страниц в базе.

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
W
На сайте с 18.06.2005
Offline
26
#5
wolf:
У них будет минимальный PR - свободный член классической формулы, поделенный на кол-во страниц в базе.

Это да, но как они окажутся в индексе? Для Гугла же это страницы "про которые никто не знает" и такие при каком-бы то ни было ранжировании не учитываются. Или я что-то упускаю?

wolf
На сайте с 13.03.2001
Offline
1183
#6
Wellwalker:
Это да, но как они окажутся в индексе?

Как-то оказываются. По сути дела, тот же Гуглевский тулбар может давать информацию о новых документах, посещаемых пользователями, у которых он установлен. Открытая статистика логов, которая потом удаляется (т.е. ссылки на документы исчезают) - опять же. И т.п.

Я, признаться, был несколько удивлен когда в статье прочел следующее:


To evaluate the proposed spam detection method we performed a number of experiments on actual web data. The data set that we used was based on the web index of the Yahoo! search engine as of 2004.
From the complete index of several billion web pages we extracted a list consisting of approximately 73.3 million individual web hosts.
The web graph corresponding to hosts contained slightly more than 979 million edges. These edges were obtained by collapsing all hyperlinks between any pair of pages on two different hosts into a single directed edge.
Out of the 73.3 million hosts, 25.6 million (35%) had no inlinks and 48.6 million (66.4%) had no outlinks. Reasonable explanations for the large number of hosts without outlinks are (1) the presence of URLs that never got visited by the Yahoo! spider due to the crawling policy and (2) the presence of URLs that could not be crawled because they were misspelled or the corresponding host was extinct. Some 18.9 million hosts (25.8%) were completely isolated, that is, had neither inlinks nor outlinks.

И хотя речь идет не о документах, а о hosts (по сути дела - сайтах):


Web host names represent the part of the URL between the http:// prefix and the first / character.

, тем не менее такая доля в базе Яху изолированных сайтов и сайтов, не имеющих ссылок с других сайтов, внушает.

!Иван FXS
На сайте с 16.11.2001
Offline
119
#7
wolf:
речь идет не о документах, а о hosts (по сути дела - сайтах) ... 66.4% had no outlinks

- это более чем странно!

wolf
На сайте с 13.03.2001
Offline
1183
#8
!Иван Fxs:
это более чем странно!

Скорее всего, подобный мусор просто очень редко попадается на глаза. Но он есть.

T
На сайте с 15.11.2004
Offline
36
#9

а тулбар Alexa - он не яхин? есть куча хостов, которые прописаны в hosts файлах девелоперских контор + всякие .dev - версии сайтов. ну в общем, у яхи хватает сервисов, сквозь которые светятся разные урлы. например, почту грепить :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий