Изменения в Яндексе от 10.11.2006

[Удален]
4216

Не будет преувеличением сказать, что эта тема сейчас в нибольшей степени волнует умы оптимизаторов. А посему никак не могу остаться в стороне.

Начнем рассмотрение темы с самого начала, с анализа фактов. Сразу предупрежу, что возможно я в чем-то заблуждаюсь, поэтому не стоит воспринимать все нижесказанное как истину в последней инстанции. Возможно мои собственные измышления натолкнут коллег на более интересные предположения.

Итак, факты. Что мы имеем. 9 ноября происходит очередной апдейт, не предвещавший бури. Самый обычный апдейт. 10 ноября все оптимизаторы обнаруживают, что выдача снова кардинально изменилась. Но что характерно, изменения затронули лишь запросы, состоящие из двух и более слов. По однословным запросам изменений не произошло. В дальнейших рассуждениях будем отталкиваться от этих двух фактов.

То, что изменение выдачи произошло на следующий день, говорит о том, что привычного апдейта не было. База не пересчитывалась, т.к. Яндексу на это необходимо 3 дня. Почему 3? Я уже освещал как-то эту тему на форуме. Кто не поленится, найдет. Опять же, не произошло появления новых бэков и выдача по однословным запросам не изменилась, что косвенно подтверждает предположение.

Тут необходимо сделать небольшое отступление и поговорить о самом процессе обновления. Как известно, факторы ранжирования делятся на две группы: внутренние и внешние. Внутренние определяются содержанием, а внешние - ссылками. Прошу прощения у гуру за повторение столь банальных вещей, но для стройности изложения они необходимы. Идем дальше, процесс обсчета как внутренних, так и внешних факторов весьма ресурсоемкий и занимает те самые пресловутые 3 дня. И вот тут мы подходим к ключевому моменту. Подсчет весов слов как во внутренних факторах, так и внешних осуществляется для каждого слова отдельно. Надеюсь вас это не удивляет. Это происходит прежде всего из-за того, что Яндекс (да и любой другой поисковик) не может предусмотреть все возможные сочетания слов в запросах, т.к. их теоретически - бесконечно множество. Поэтому как ссылочный, как и контентный вес обсчитывается исключительно пословно. Эти данные собственно и составляют сам поисковый индекс. Этот процесс, напоминаю, занимает 3 дня. А собственно ранжирование по конкретному запросу осуществляется поисковиком “на лету” на основании первичных данных. Также не лишним будет сказать, что всевозможные фильтры также обсчитываются на начальном этапе, т.е. учтены в первичном индексе.

Теперь, после небольшого отступления снова возвращаемся к нашему анализу. Как наверное уже ясно, первичные данные не изменялись. Т.е. списать все на введение каких-то новых фильтров (в т.ч. на тематичность ссылок или морды) просто нельзя. Это подтверждается также неизменностью выдачи по однословным запросам - индекс рассчитан и вес каждого документа по каждому слову уже известен. Однозначно все сводится к тому, что изменения произошли в самой формуле расчета релевантности, которая формирует выдачу “на лету”.

Для наглядности обратим внимание на формулу расчета релевантности, представленную во всем известной статье Сергея Людкевича (wolf):

Rа(x)=(m*Tа(x)+p*Lа(x))* F(PRa),

где:

Rа(x) - итоговое соответствие документа а запросу x,

Tа(x) - релевантность текста (кода) документа а запросу x,

Lа(x) - релевантность текста ссылок с других документов на документ а запросу x,

PRа - показатель авторитетности страницы а, константа относительно х,

F(PRa) - монотонно неубывающая функция, причем F(0)=1, можно допустить, что F(PRa) = (1+q*PRа),

m, p, q - некие коэффициенты.

Как, вполне справедливо, замечает сам автор, формула весьма приблизительная. Но нам важна не столько сама формула, сколько параметры, используемые в расчете.

Теперь рассмотрим непосредственно сам процесс расчета релевантности документа. Опять же, неизменность выдачи по однословным запросам говорит нам о том, что в самой формуле изменений не произошло. Коэффициенты m и p остались неизменны. Раз так, то говорить об увеличении веса контента относительно ссылочного ранжирования нельзя. А поскольку уже многим очевидно, что контент стал все же играть бОльшую роль, то логика и интуиция подсказывают, что все изменения произошли на этапе расчета параметра Lа(x) для многословных запросов. И изменения эти привели к уменьшению абсолютных значений этого параметра. С учетом того, что первичные данные для этого коэффициента остались неизменными, значит, изменилась сама формула расчета ссылочного веса на основе весов и близостей отдельных слов запроса, входящих в текст ссылок.

На этом общий анализ буду считать завершенным. Дальнейшие выводы делаем сами.

[Удален]
#1

Да, еще, склонен полагать, что исследования ХренРедькиНеСлаще в общем и целом идут в верном направлении. Истина где-то рядом :)

T
На сайте с 27.06.2006
Offline
179
#2

Автор, так что Вы хотели донести пытливому читателю ?

Mr_Promoter
На сайте с 06.08.2004
Offline
254
#3

Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.

http://webpromote.ru (http://webpromote.ru) - пописываю иногда ...
[Удален]
#4

Trump, не более, чем дать пищу для размышлений ;-)

_wind_
На сайте с 24.07.2006
Offline
110
#5
Mr_Promoter:
Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.

Получается чем меньше внешних ссылок тем лучше? Странно, IMHO.

Сдать/снять квартиру без посредников (http://to-rent.ru), Доход для вебмастера (http://www.sape.ru/r.1cc08e9f90.php), Продам WMZ/WMR за телебанк с доплатой 1%
IndexSa
На сайте с 23.12.2005
Offline
205
#6
Mr_Promoter:
Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.

Очень согласен, в этой теме надо всегда держать уши по ветру. Сначала я думал о мордобое, сейчас просто уверен что это борьба с врагами_народов и майкрасофтом_геммороем и иже сними. Ссылочное рулит как и рулило, только вес ссылки как бы "привязали" к внутренним факторам, и возможно тематичность документа вовсе и не учитывается. ихмо конечно

мозг находится в мире, а мир находится в мозгу
Hkey
На сайте с 30.09.2006
Offline
222
#7

Может скажу глупость но может изменились не алгоритмы метрик сайтов по словам, а алгоритм сложения этих метрик.

Например запрос "слово1 слово2 ... словоN"

Для каждого слова считают метрики на каждый сайт M[J]("словоI", сайтJ)
Так вот эти метрики не поменялись. Поменялся их алгоритм сложения.

Релеватность сайта J = F(частота слова в рунете ("слово1"))*M[1][J]+...+F(частота слова в рунете ("слово1"))*M[N][J].

Т.е. поменялась функция F() зависимость коефициента от частоты слова во всем индексе.

HTraffic.ru (http://HTraffic.ru/) - удобная система для управления контекстной рекламой. тема на форуме (/ru/forum/810827) HTracer (http://htracer.ru/) - скрипт для автопродвижения сайтов по НЧ и СЧ запросам. Для больших сайтов от 100 страниц. (тема на форуме (/ru/forum/676867))
Boris Shramko
На сайте с 18.01.2006
Offline
116
#8
IndexSa:
тематичность документа вовсе и не учитывается

Ну это, вроде, сейчас Logistic проверяет - с него и спрос

308827355
Mr_Promoter
На сайте с 06.08.2004
Offline
254
#9
_wind_:
Получается чем меньше внешних ссылок тем лучше? Странно, IMHO.

Причем тут количество? Речь идет о качестве.

[Удален]
#10

Hkey, склонен согласиться ;) Аналогичные мысли

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий