Нет, просто наблюдения за эффектом от ссылок с очень жирных страниц (так эффект виднее). Сразу после индексации ссылки - стремительный взлет пациента по запросам из её текста, а потом - медленное сползание от апдейта к апдейту на позиции чуть выше исходных.
Это всё, конечно, хорошо, но всё равно я не вижу логики в эффекте устаревания ссылок. Хотя, судя по всему, этот эффект имеет место быть.
SStas, если Вы не заметили, то здесь выдвигаются гипотезы. Их можно подтвердить, можно и опровергнуть. Ваше "ИМХО", конечно вещь весьма ценная, но было бы намного лучше, если бы оно подкреплялось чем-нибудь более конкретным.
Да, учёт динамики появления ссылок - тоже весьма вероятная гипотеза. И кстати, с этой точки зрения, автосабмиттеры, в сжатый период времени обеспечивающие появление большого количества новых ссылок, тоже могут сослужить плохую службу.
/ru/forum/comment/1192485
Также не следует сбрасывать со счетов различную конкуренцию по различным запросам.
А вот это, на мой взгляд, не совсем логичный фильтр. Получается чем старше ссылка, тем она слабее? Своеобразный антиотстойник? И тепличные условия для дорвеев, которые все равно долго не живут. Хотя, логика разработчиков поисковиков может весьма сильно отличаться от логики оптимизаторов. :)
Получается. Но, заведомо не зная, подействует ли это во вред, немногие решатся на такой шаг, не так ли? :) Ведь всё, о чем мы говорим - не более, чем гипотезы.
Логично, с той точки зрения, что такой способ может помочь отфильтровать покупные ссылки. Ведь ссылки продавать-то продают, а вот в <title> своей морды никто чужие ключевики пихать не будет.
Запросно-зависимые различия в ранжировании могут объясняться попыткой отслеживания естественной частоты употребления фразы в текстах входящих ссылок. Эта идея не нова и уже много раз обсуждалась. Например, одна и та же концентрация может быть приемлема для частотного однословного запроса, но чрезмерна для более редкого словосочетания.
Если принимать во внимание анонсировавшийся trustrank, то можно сделать следующее предположение. В классической теории trustrank сайта определяется на основе ссылок на него, двумя словами, неблагонадежный сайт ссылается - trustrank уменьшается, благонадежный - увеличивается. Только надо сначала, чтоб запустить процесс расчета, составить базу заведомо неблагонадежных и заведомо благонадежных сайтов. Какие ссылки можно зачислить в заведомо неблагонадежные? Ну, например, с каталогов (хороший индикатор искусственного повышения популярности), тем более, что добыть их списки не так сложно - в автосабмиттерах типа 1ps они лежат в открытом доступе. Вот и может получиться, что регистрация в каталогах может сослужить плохую службу. Получим низкий trustrank из за обилия ссылок с неблагонадежных каталогов, и как следствие, сильный понижающий коэффициент на учет всех входящих ссылок, в том числе и с благонадежных сайтов. А молодой сайт, не засвеченный в заведомо неблагонадежных местах, имеет шанс получить неплохой trustrank и для него те же самые ссылки с благонадежных сайтов будут учитываться с гораздо большим весом. Вот такая гипотеза исходя из природы trustrank'а.