Маэстро, у вас с математикой напряг.
Пусть два одинаковых сайта передают по ссылке один и тот же вес равный 1. Пусть а=0.15 (знакомый коэффициент :))
Тогда суммарный вес двух одинаковых ссылок будет 1 + 1/(2^0.95) = 1.9, трёх одинаковых - 2.75. 10-я ссылка с тем же анкором будет иметь вес на 30% ниже положенного, а для достижения того же эффекта от ссылок, что и без фильтра, понадобится две дополнительные ссылки. 100-я ссылка с тем же анкором будет облегчена на 50%, а допссылок понадобится уже 42 штуки и т.д.
В общем, таким фильтром очень удобно бороться со сквозняками.
Угу. Только это скорее исключение из правил. Сравни, например, любимый :) запрос кондиционеры в Яндексе и Гугле и обрати внимание на количество внутренних страниц в обоих серпах.
Вообще, конечно, можно сказать, что я не умею делать внутреннюю оптимизацию для Яндекса, потому что у меня типичное распределение поискового траффика на оптимизированных сайтах такое: Я-45%, Г-30%, Р-15%, что несколько расходится с традиционными Я-50%, Р-18%, Г-17%.
Но мне, разумеется, хочется считать, что это не я неумёха :), а как я говорил выше: Гугль не бреззгует внутренними страницами, а стало быть внутрисайтовая оптимизация в первую очередь оказывает влияние именно на него.
Есть сильные сомнения в валидности заголовков.
Во-первых, подозрительно наличие двух заголовков Cache-Control, во-вторых, описаний для post-check и pre-check в RFC я не обнаружил.
Инфа от верблюда :) Можно сказать, что это вывод из собственных наблюдений и общих соображений.
Ряд есс-но расходящийся, т.е. чем больше ссылок, тем лучше. При сходящемся ряде может сложится ситуация, при которой сайты с существенно различным качеством и количеством входящих ссылок будут иметь одинаковый ссылочный вес с точностью до какой-то дэльты и в итоге сайт, допустим, с миллионом входящих ссылок (например, с наименованием бренда/сайта в анкоре, что вполне естественно для сайта брендовладельца) проиграет сайту с сотней тысяч входящих ссылок (к примеру, диллеру того же самого бренда), по каким-то доппараметрам, что не есть гуд.
N, кстати, известен - это порядковый номер :) Неизвестен степенной параметр. Он, кстати, может зависеть от длины запроса: чем длиннее запрос, тем больше этот параметр, т.е. вклад от дополнительных одинаковых длинных ссылок нивелируется быстрее.
На практие эта ахинея сводится к простому наблюдению: при достаточно большом количестве одинаковых входящих ссылок можно безболезненно менять анкоры некоторого, относительно небольшого, количества из них на совсем другие. Если анкоры меняются на комплементарные, то это сопровождается некоторым улучшением позиций по ключевику, общему для старых и новых ссылок. Что, однако, всегда можно списать на то, что сегодня так легли звёзды :)
Фильтр, который есть однозначно, можно описать простым степенным рядом: вклад каждой следующей ссылки с уже имеющимся анкором уменьшается на величину, пропорциональную порядковому номеру ссылки:
p = P/(n^a), где 0< а < 1. Т.е. после какого-то n добавлять ссылки с тем же анкором становится бессмысленно - толку почти никакого.
Согласен с harlot'ом. Как купить мобилу-холодильник-ноутбук, так ноги сами бегут в банк за потребкредитом. А как операцию родственникам знакомых делать, так ножки и отсыхают. Зато ручки шаловливые создают сайт (или тему на форуме) и выкладывают на нём для приёма денег исключительно электронные реквизиты, хотя в том же сбербанке открытие р/с стоит непомерных денег - целых 10 рублей.
Странно, что Матвей ничего не сказал про CSS и SQL Injection. Палю, канешна, тему :), но тем не менее таких "оптимизаторов" достаточно много.
И вот это уже посерьёзнее спама гостевых и блогов будет...
Ага. И клик-фрод в 2 раза выше. Если не больше.
Внутренняя оптимизация для Яндекса не имеет практически никакого значения. Из-за любви Яндекса к мордам (я пока не про ссылки с них :)).
Есть сколько угодно примеров сайтов из тысяч страниц, каждая из которых ссылается на топ разделы (перечислены в основном меню), но яндекс при поиске по запросу=названию раздела считает наиболее релевантной морду сайта.
Риторический вопрос: на какую страницу (морду или страницу раздела) оптимизатор будет ставить внешние ссылки, особенно если учесть, что каталоги (особенно нормальные) не приветсвуют deep linking?
А вот в Гугле - да, можно выезжать за счёт внутренней оптимизации по достаточно конкурентым запросам при условии авторитетности самого сайта. Он не брезгует выдавать в топе внутренние страницы сайтов.
Яндексу стали обременительны московские расценки на программистов? :)