Ну в принципе.. он-же на него ответил, вот, например, результаты переколдовки:
anchor#link="www.okna-magnit.ru*"::1819103916["окна::5689 пвх::52568"]
anchor#link="www.okna-magnit.ru*"::1819103916[!окна::13950]
т.е. для однословных запросов "подкручивается" вес ссылочной составляющей, а для запросов, состоящих из нескольких слов он остается прежним. Предполагается, для двухсловных запросов на данный момент важнее вес страницы*релевантность запросу, а для однословных - ссылочного ранжирования (т.е. морды).
p.s. Вот только по экспериментам пока этого не заметно :(
Шла речь о том, что, например, сайт, до произведенных изменений занимал первое место, по запросам "окна" и "пластиковые окна". После того, как алгоритм был подкручен, "пластиковые окна" улетели за 3 дестяток, но при этом и "окна" и "пластиковые" так и остались на первом месте, как были до изменения алгоритмов. Т.е., во многом, это не вопрос изменения веса страницы, релевантности и т.д. Причем, периодически, можно наблюдать по 2-х и 3-х словным запросам старую выдачу. (но далеко не всегда - в основном тогда, когда народ жалуется на глючащий кэш - из чего можно сделать определенные выводы).
Все сразу начали говорить о введенном фильтре на морды по соотносимости запросов. (Как было обьявлено в одном сообщении пару месяцев назад) Вполне возможно, что так оно и есть - хотя первые эксперименты, к сожалению, хорошего результата в этом направлении не дали.
А вот то, что касается Ваших выводов (вопрос с стоп-словами не беру) - во многом согласен и многие изменения по однословникам (они-же тоже произошли при изменении алгоритма) это подтверждают.
В принципе, когда встает такая задача иногда могут возникать небольшие трудности.. например, что отдельная страница, выделенная под запрос, не хочет показываться из-за того, что ссылки, с вхождением этого запроса идут на главную. (ситуация была чем-то похожа на описанную в этом топике, но не с минусовым запросом). Пришлось сделать домен 3 уровня и с ним работать.
Хотя в данном случае это не очень приемлимо..
Есть способ - посмотреть по нескольким интенсивным высокочастотникам конец серпа (т.е. 45 - 50 место). Если идет апдейт - оно обычно сильно пляшет, даже при неизменном количестве проиндексированных страниц.
При этом на первых местах вообще никаких изменений может не быть, а хвост обычно сильно меняется по позициям, причем это происходит сравнительно быстро - 10 минут обычно хватает что-бы понять точно есть апдейт или него нет.
А может все же проще, без "срамного" коэффициента для страницы? Просто фильтр при учете входящих и все.
Вот сколько я ни пытался - именно такого эффекта не было. Поэтому мне в голову до сих пор всякие трастранки и не лезут.. не похоже это на коэффициент для _всей_ страницы. Может плохо пытался, конечно..
Преувеличиваете. :) Если введут такую систему - все может остаться на своих местах - просто количество работы возрастет. Вместо одного сайта будет продвигаться 10 - все равно какой-нибудь из них будет в топе (если конечно знать, что делать) - процедура продвижения просто будет больше автоматизироваться и все. Сайт опустился - да ну и фиг с ним, проще 10 других сделать.. (и в конечном итоге перебросить пользователя на один сайт с контентом, например.)
Наоборот, как мне кажется, в дальнейшем должен быть поворот к повышению ценности сайта как такового - ведь если вывести проект наверх тяжело, если для этого нужно много работы (а главное - время.. та же песочница - что-бы сайт "сработал" через пол-года, не раньше. И "запесочить" кстати можно довольно много разных факторов.), то никто не будет строгать клонов.. и отношение к результату будет иным.
Ну а если сделать систему, пессимизирующую за все, за что только можно - конечный результат будет предсказуем.. (как мне кажется) все скатится к технологиям дорвеестроения. Само собой, на выдаче это отразится отрицательно - следовательно появится определенное недовольство у конечного пользователя - зачем фильтровать 10 сайтов одной фирмы на первой странице - проще пойти в Рамблер, например.. ;)
.. если такая возможность будет - вполне можно будет понизить позиции нормальным сайтам (с историей, контентом и т.д.), а выдача Яндекса по всем высокочастотникам будет забита по самое нехочу _только_ клонами (ибо кто возьмется продвигать один нормальный сайт в таких условиях).
Поэтому, я надеюсь, что до практики дело не дойдет.
Фишка в том, что в ближайшем времени все это могут пофиксить - т.к. я понимаю, эта особенность - не больше, чем побочный эффект определенных нововведений. (и кстати, наши эксперименты показвают что это не trustrank ;)
А может всем нам надо задуматься.. лучше эти темы не стоит вообще поднимать? Нормальные люди такой фигней пользоваться не станут (извините если не прав - сужу по себе) - но вот найдется куча народа, которые, сидя на 40 месте непременно захотят сбить сайт на 1.
Не факт, что это получится, т.к. это очень узкая возможность и применима только в определенных случаях и сочетаниях факторов, но нервы окружающим попортить удасться это точно.. :(
Действительно, в последнее время, очень часто беки срабатывают не сразу. Через апдейт или даже два. (Разумеется, иногда вообще на срабатывают.)
Возможно, это связано с тем, что механизмы индексации контента (быстроробот + обычный) немного ушел от кода, который занимается ссылочным ранжированием и т.д. (Возможно, всвязи с усложнением последнего и введением новых факторов, поскольку быстроробот как таковой ссылки ловит и учитывает.)
По крайней мере первые симптомы того, что бэки стали учитываться не сразу у меня появились именно после запуска быстроробота. На данный момент, вполне ощутимое количество новых ссылок не дает эффекта сразу - надо ждать..
p.s. Кстати, одной из причин того, что ссылки могут учитываться не сразу может являтся их сравнительно частое появление (или обновление) на этой странице - например смотрел, с многих досок обьявлений (но не со всех конечно), ссылки учитываются через апдейт (не смотря на то, что страница с ними уже в базе).
Тут еще один фактор мог внести свои корректировки. Он хорошо заметен именно на первом сайте - вряд-ли у него виц больше тихартавского.