Такое уже было несколько раз за последнее время, правда не так сильно. Впечатление такое, что не учелся большой кусок ссылок.
Может быть "докатят" в ближайшее время.
p.s. По запросу "строительство" на 2 месте страница из линкатора. :)
Есть нечто, очень похожее на выпадение ссылок с некоторых сайтов.
В позапрошлый апдейт была такая-же ситуация, только выпало гораздо больше, в прошлый апдейт исправилось.
Т.е. будет вычисляться "схожесть" ссылок, путем нахождения некоего повторяющегося фрагмента текста? Но ведь нахождение этого самого фрагмента в большинстве ссылок и должно в результате выделять один сайт от другого (по крайней мере по смыслу).. как мне кажется будет очень много побочных эффектов от подавления одинакового текста в ссылках.. ведь крайне редко ссылка все-таки возникает без участия владельца сайта. :)
Рост сайта, на который стоит большое число одинаковых ссылок из 2 слов прекратился где-то после 25-50 проставленных ссылок. Они ставились медленно, но более точный порог так и не удалось засечь. Он иногда ходит вверх-вниз, но это не более чем флуктуации.. Так что все-таки клеит.
У меня такое впечатление, что просто есть некоторое число разрешенных одинаковых ссылок, составленное исходя из вероятности их появления - т.е., например, для двухсловных - 30, трехсловных - 10, четырех - ..., поскольку вероятность самостоятельного появления (т.е. что бы их поставили именно люди от балды) одинаковых ссылок из 10 слов весьма низкая. :)
Но меня все-же не оставляют сомнения.. может не в склейке дело.. ведь тогда у большого кол-ва народа должны были сайты попадать.. А в тематиках которые я мониторю никакой жуткой перетасовки нет - так, небольшие изменения.. И у многих есть эти самые одинаковые ссылки.
Согласен. Хотя и ссылка в 8-12 слов до определенного количества повторений (или другого фактора) тоже работает обычно.
А по поводу "эксперементального" сайта - разумеется, его рост по запросу прекратился (пессимизации нет) после некоторого количества ссылок - я лишь хотел этим постом сказать, что вряд-ли особенности этого апдейта вызваны склейкой одинаковых ссылок.. скорее в этой области не было изменений.
Два слова.
У меня есть сайт, на который стоит порядка 200 одинаковых ссылок - я использую его для экспериментов. За этот апдейт он немного поднялся. Да и в принципе, позиция которую он занимает, нельзя назвать низкой.
(я ни в коем случае не хочу сказать, что все ссылки учитываются)
А по поводу этого апдейта - у меня тоже много наблюдений, но пока не хочу делать выводы - вдруг в результате все это окажется обычным глюком. :)
У меня тоже были задержки с индексацией комов. Мне в таких случаях помогает повторное внесение сайта в addurl с периодичностью где-то в 2 дня, совмещенное с простановкой нескольких новых ссылок.
Обычно в течении 1 - 2 апдейтов после начала дерганья вопрос решался, как ни странно..
Ну так все-же.. добавляется новый критерий, который напрямую не характеризует сайт (давайте временно считать ссылки внутренним показателем - т.к. они в базе поисковика), а характеризует некие процессы, происходящие при его просмотре. Это же целый набор новых факторов влияния, большинство из которых возможно будет легко подделать! Сами подумайте, как легко заменить поведение человека роботом.. Я говорю глобально, а не о конкретных IP и т.д.
И эта "положительная обратная связь" тоже будет присутстовать при оценке многих факторов посещаемости, а не только при просмотре главной страницы выдачи.
Клик это очень эфимерная вещ. Ведь ссылки можно хоть как-то отслеживать.. они существуют во времени. А клик существует доли секунды. В нашем мире где все продается и покупается сделать систему, которая будет собирать клики со многих, если не со всех ip рунета, как мне кажется довольно просто - их-же можно покупать (повесил себе программу, которая кликает с твоего компьютера и получаешь бабло), выменивать, закупать оптом у системных администраторов и т.д.