PR и явление гистерезиса

12
Слава Шевцов
На сайте с 23.07.2005
Offline
370
1292

Известно, что сайт с 10К страниц практически не индексируется Гуглем, если на него не стоит ни одна ссылка. Если поставить тяжёлую ссылку, то он хорошо индексируется. Какая часть страниц сайта останется в индексе, если эту тяжёлую ссылку убрать? Как максимизировать количество оставшихся в индексе страниц (правильная перелинковка? субдомены? сетка доменов?).

Неизменность точки зрения неизменно порождает иллюзию понимания.
bondarev.pp.ru
На сайте с 29.09.2005
Offline
202
#1

Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются. Уберете ссылку - уменьшится PR страниц - страницы выпадут из индекса. Не знаю, как быстро это происходит, но страницы с почти нулевым PR в индексе на всегда не останутся.

bondarevpipes.com (http://ru.bondarevpipes.com/)
ST
На сайте с 17.01.2004
Offline
136
#2
bondarev.pp.ru:
Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются.

Это предположение или проверенный факт?

Глобальная мечта: создать бизнес, управляемый с яхты.
bondarev.pp.ru
На сайте с 29.09.2005
Offline
202
#3
Sergey T:
Это предположение или проверенный факт?

Я об этом читал в какой-то англоязычной публикации пару лет назад. Думаю, вы сможете ее найти. Откуда автор взял эту информацию, я не знаю. Но очень похоже на правду.

Слава Шевцов
На сайте с 23.07.2005
Offline
370
#4
bondarev.pp.ru:
Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются. Уберете ссылку - уменьшится PR страниц - страницы выпадут из индекса. Не знаю, как быстро это происходит, но страницы с почти нулевым PR в индексе на всегда не останутся.

Если бы это работало в чистом виде, то PageRank в сети уже не было бы. Дело в том, что при каждой итерации обрезались бы страницы с PageRank ниже уровня. Из-за этого при следующей итерации соседние с ними страницы получали бы PageRank чуть меньше, чем ранее и Гугл о них бы забывал. Дальше идёт цепная реакция с отпаданием крайних страниц, которые свой PageRank получали от уже отвалившихся. А так, как все страницы в сети для PageRank равноправны, то даже сайты с PR10 в короткое время получили бы минимальный PageRank и вывалились из индекса ☝

Думаю, что есть ещё какие-то условия: на субдоменах, например, разрешено индексировать без PR до N страниц. На доменах - М страниц. По крайней мере, Гугл ходит по страницам нескольких слинкованных моих доменов, у которых нет внешних ссылок, но есть ссылки друг на друга. Даже по четыре страницы в индексе показывает. Причём эти страницы взаимно слинкованы на разных доменах.

Как-то Сегалович высказал про Рунет то, что не правильно считать ссылочное ранжирование, не имея в индексе поисковика всех страниц. То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.

bondarev.pp.ru
На сайте с 29.09.2005
Offline
202
#5
Слава Шевцов:
Дело в том, что при каждой итерации обрезались бы страницы с PageRank ниже уровня.

Скорее всего, в расчете PR участвуют все документы. В индексе их хранить ни к чему - ведь нужна лишь информация об их ссылках.

Слава Шевцов:
Думаю, что есть ещё какие-то условия: на субдоменах, например, разрешено индексировать без PR до N страниц. На доменах - М страниц.

Гуглу по фигу, на какого уровня домене расположена страница.

Слава Шевцов:
То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.

Возможно, так и происходит.

Не готов дискутировать на эту тему.

Diversant
На сайте с 29.03.2006
Offline
329
#6
Слава Шевцов:

Как-то Сегалович высказал про Рунет то, что не правильно считать ссылочное ранжирование, не имея в индексе поисковика всех страниц. То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.

Вот это интересно ...., а еще интересней будет показывать всё, а не 10-15 страниц поиска ☝

greenwood
На сайте с 08.09.2003
Offline
519
#7
Слава Шевцов:
Известно, что сайт с 10К страниц практически не индексируется Гуглем, если на него не стоит ни одна ссылка.

если нет ни одной ссылки, так и одну страничку не проиндексирует :)

greenwood
На сайте с 08.09.2003
Offline
519
#8
bondarev.pp.ru:
Скорее всего, в расчете PR участвуют все документы. В индексе их хранить ни к чему - ведь нужна лишь информация об их ссылках.

спорно, но красиво

[Удален]
#9

greenwood, вряд ли спорно. Вот к примеру, в яндексе последнее время быстробот занимается только собиранием ссылок. Контент основному боту не передается.

Слава Шевцов
На сайте с 23.07.2005
Offline
370
#10
greenwood:
если нет ни одной ссылки, так и одну страничку не проиндексирует :)

Согласен. Вопрос в том, что будет, если была куплена ссылка PR8, все страницы проиндексировались, ссылку убрали. Что лучше удержит страницы в индексе в таком случае: один домен, домен с поддоменами или сетка. Будет ли вообще остаточный эффект через три месяца после снятия ссылки или нет.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий