А я наоборот думаю, что излишнее рвение при простановке ссылок может быть воспринято как искусственная накрутка.
Да, возможны варианты когда появляется какой-то супер сайт, на который все хотят поставить ссылку, но тогда, как мне кажется, прирост ссылок должен примерно идти по экспоненте, типа как естественный процесс воспроизводства :) - сначала узнал один человек, от него еще несколько, от этих нескольких еще группа людей и т.д., т.е. лавинообразно...
Так вот, это больше для новых сайтов подходит. С другой стороны, какой-либо сайт, который долго существует с небольшим весом, мог банально сменить дизайн, начать развиваться - и тоже пошли на него ставить естественные ссылки.
----------
Не знаю, мне кажется легче отследить накрутку именно через динамику в простановке ссылок, нежели пытаться отследить непосредственно естественность ссылок.
Хм-м...
возможно в данном случае играет бонус новичка, когда сайт выстреливает, а затем, даже при росте бэклинков, начинает падать и через месяц где-то все устаканивается.
Кстати, самый главный вопрос - а по какому принципу ранжируются сайты в выдаче "найден по ссылке"?
Не совсем понимаю, как сделан такой вывод...
На сайт evgeny.neverov.name четверо ссылающихся, все отображаются по вышеназванному запросу, хоть с rd, хоть без, да и сниппеты разные.
Сайт-акцептор находится "по ссылке" на седьмом месте.
Исскуственное понижение веса за обнаружение элементов "накрутки", т.е. санкции, штрафы, которые не вписываются в формулу
Не бейте, я не математик...
Хм-м, я считаю, что формула текстовой релеватности - функция линейная, соответственно, чем больше ключевиков - тем лучше.
Может быть в какой-то момент она выходит на насыщение, т.е. дальнейший прирост ключевиков уже ничего не дает...
ИМХО:
Яндекс формулу подредактировал, и ввел условие типа "если". Если "тошнота" больше, то ... пессимизация.
Для практического применения в продвижении сайта такая формула вполне подходит
Вы считаете пессимизации за большую "тошноту" нет?
На самом деле экспермиенты проводились где-то полгода назад, может уже все изменилось... но тогда было впечатление, что именно пессимизация за большую "тошноту" - причина странных результатов по экспермиентам.
Несколько месяцев назад подредактировали несколько сайтов, снизили "тошноту", в том числе и за счет уменьшения ключевых слов - такие манипуляции благотворно подействовали на сайты.
В общем, с каких пор начинается "порог пессимизации" - я не знаю точно, но имхо, он есть.
В ссылочном, думаю, что нет.
Допустим, две страницы. По десять раз встречается слово "жалюзи". В первом документе самое частотное слово "сайт" - 11 раз. Во втором - самое частотное слово "купить" - 30 раз. Первый документ релевантнее, т.к. "тошнота" меньше (при прочих равных, т.е. не рассматриваем там title, заголовки и проч.).
Допустим другая ситуация -
первый сайт: ключевик "окно" - 36 раз, самое частотное слово "окно" - 36 раз (грубо, релевантность = 36/sqrt(36) = 6 у.е.
второй сайт: ключевик "окно" - 15 раз, самое частотное слово "купить" - 16 раз. (релеватность = 15/sqrt(16) - 3.75 у.е.
Теоретически первый сайт релевантнее запросу "окно", однако у него "тошнота" очень большая (целых 6) и Яндекс за это пессимизирует сайт и второй сайт становится релевантнее.
Точной границы, после которой пессимизация идет, не знаю, субъективно-после того, как "тошнота" зашкаливает за 5-6 единиц.
___________________
Однако, как мне кажется, в ссылочном такого быть не может, так как тогда можно легко конкурентов заспамливать.
Видимо методом "шинглов". Если, конечно, они вообще анализируются...
Сниппет влияет только на отображение, т.к. в сниппет зависит от запроса и попадает в сниппет также описательная инфа, title страницы например.
Все отталкивается от естественности ссылочной массы. Я думаю у Яндекса есть примерное представление о естественном ссылочном окружении. Возможно такой порог есть.
Учитывая, что Яндекс использует частично алгоритм TrustRank, возможно ссылки с "доверенных сайтов" учитываются в любом случае.
ИМХО: вес не понижается, он просто не добавляется.
Получается, что если есть склейка, то да. Я не согласен.