Я-то могу расшифровать. Только там даже расшифровывать ничего не надо, надо просто глаза открыть.
Вы тут где теорию увидели?
Пробовали? Proof or STFU.
http://yandex.ru/yandsearch?text=покажи+мне+все+документы+с+этого+сайта&site=www.unmedia.ru
и
http://yandex.ru/yandsearch?date=&text=&site=www.unmedia.ru
есть разница?
http://yandex.ru/yandsearch?serverurl=www.unmedia.ru
Открываем ссылку, смотрим в строку поиска и призываем Капитана Очевидность 🙄
Чего - документов, удовлетворяющих условиям поиска.
Чему - поисковому запросу.
По запросу http://yandex.ru/yandsearch?serverurl=www.unmedia.ru страницы ранжируются по релевантности (Капитан Очевидность).
Снизу даже написано:
Дальше, имхо, легко догадаться.
А можно пример в личку?
А площадка продвигается по каким-то конкурентным запросам? Есть в топе? Запросы, которые 10-го поднялись обладают меньшей конкуренцией, чем основные?
В этом ключ, мне кажется.
Моя гипотеза:
1) Допустим продвигается запрос "слово1".
2) До какого-то момента сайт очень легко лезет вверх по запросу "слово1", при этом поднимаясь каждый ап (новые ссылки влетают в индекс и сразу дают + к релевантности по этому запросу)
3) Потом релевантность сайта по запросу "слово1" вруг перестает поддаваться накачиванию ссылочным. Т.е ссылки покупаются, а сайт как будто упирается в "потолок" и не лезет вверх.
4) В некоторые апдейты "потолок" как будто повышается (далеко не в каждый апдейт, и при условии что куплены правильные ссылки), сайт лезет вверх, при этом как правило упирается в следующий "потолок" (потому что оптимизатор обычно начинает покупать все больше ссылок, недоумевая, где же эффект).
5) При этом мы легко можем продвинуть запрос "слово1 + дополнительное слово" (при условии меньшей конкуренции, чем просто по "слово1"), купив всего пару ссылок - они будут работать сразу же, как залетят в индекс. Но "слово1" подниматься не будет, пока Яндекс не соизволит еще раз пересчитать тот фактор, который определяет "потолок" сайта.
6) "Потолок" задается для всего сайта, соответственно чем конкурентней запрос - тем выше должен быть "потолок".
Получаются своеобразные "ступеньки".
Если купить хреновых ссылок или допустим доноры поулетают в бан, бывает такое что сайт падает на "ступеньку" вниз, причем это может быть та же позиция, с которой он поднялся в предыдущий, "хороший" апдейт.
Все это напоминает лимитирование аудиосигнала в обработке звука - для сайта выставляется определенный Treshhold (порог уровня, который зависит от качества ссылочного), при достижении которого всяческие манипуляции по повышению релевантности просто тщетны, т.к все что выше заданного порога - просто обрезается нафиг. Какая бы величина релевантности сайта запросу не получалась на выходе - "лимитер" глушит ее до определенного уровня, если она его превышает.
Но если требуемая для топа релевантность по запросу ниже, чем заданный порог - то такой запрос легко закинуть в топ за пару апов.
Единственное, чего я не понимаю, это почему нельзя обсчитывать эту величину (если она конечно вообще есть) каждый апдейт, хотя вполне возможно что это реально ресурсоемкая задача.
ps. И да, в этом месяце я тоже не видел обновления "потолков" для сайтов, хотя 3-го числа было что-то похожее.
Это Яндекс, тут могут и на*** послать :D
Мне кажется пересчитывают не именно ссылочное, а тот самый фактор ("траст"), который задает для сайта "потолок" по релевантности. Ссылочное то прибавляется, но при дальнейшем обсчете глушится этим фактором.
Вот это поворот)