Не, на этапе прюнинга такие действия бессмысленно делать.
Нет никакого "идеального" анкор-листа и быть не может.
Зачем множество оцененных документов по запросам называть матрицей? Чтобы еще больше запутать оптимизаторов? :)
Собственно, все выводы о наличии спам-фильтра на анкор-лист делаются из более-менее одного и того же эксперимента. Не меняя доноров, меняются тексты анкоров, с изменением % точных вхождений. И, если сайт после этого поднимается в выдаче, то делается вывод о наличии фильтра.
Я бы хотел заметить, что данный эксперимент такого вывода сделать не позволяет. :D
При смене текста анкор-листа изменится множество факторов пары (запрос, документ), скорее всего - тысячи факторов. Соответственно, функция ранжирования насчитает документу совершенно другую релевантность запросу, которая может оказаться и выше предыдущей. А может и не оказаться. И % точных вхождений конечно же теоретически может быть самым важным фактором (если такой фактор вообще существует), но практически этого не определить таким экспериментом. :)
Иногда без него никак. :D
Ну так это от сервера зависит, не у всех бюджетные варианты. :)
Почему же, многие ставят. Независимые счетчики - хорошие пузомерки для взрослой монетизации. :)
Наглый бомбинг тут ни при чем. Речь шла не о размере анкор-листа, а о его сео-спамности по отдельным анкорам.
Может быть, с одной стороны на молодом сайте переспам без ссылочного взрыва не возможен, но с другой стороны - фильтр накладывался на узкую группу ключей и на весь сайт, такой локальный "ты последний". Что вроде не характерно для фильтра за взрыв.
Важен еще и вопрос конверсии. По утверждениям спецов, в некоторых темах конвертируются исключительно ВЧ.
Тут не однозначно пока все. Один из моих коллег, имеющий сайт с почти 100К коммерческого трафа, считает, что поведенческое может влиять. У него стоит Яндекс.метрика и часть запросов просела, как вариант - из-за плохого поведенческого по этим запросам.
Что касается спамности анкор-листа, то в последнее время я не наблюдал такого, не было примеров. Но в Арзамасе для молодых сайтов спам-фильтр был жестким, почему бы ему и сейчас не работать?
Никакого. :D
Там должно быть 1+TF в знаменателе, аналогично и в метрике W4. Формулы при размножении мутировали почему-то. :)
P.S. Вот кто-то уже и формулы попытался осмыслить. :)
G00DMAN добавил 12.07.2010 в 20:27
В статье, которая по ссылке в подписи, ашипки исправлены, спасибо DMeetya. :)
Это от безысходности и в целом это не так. Тут есть два достаточно существенных аргумента против: если у оптимизатора возникли проблемы с выводом запросов, то не нужно думать, что они только по ВЧ, по НЧ появились те же проблемы и вывод запросов в прежних объемах будет затруднительным. Ну и появление в нише трафикового сео кучи конкурентов еще больше усложнит задачу. Так что сомнительный тренд. Хотя направление будет развиваться, как было и раньше.
Поисковая система не гоняется с оптимизаторами. Просто так сложилось, что текущий алгоритм ранжирования в Яндексе оказался гораздо сложнее. :)
Цель исследований - получить преимущества в отрасли, цель доклада - попытка привлечь в сео кучу очкастых математических ботанов, которые бы запинали текущих околоматематиков (типа нас с Людкевичем) тощими ногами в вонючих носках. :D
Маленький бюджет на ссылочное и маленькие затраты на развитие сайта - разные вещи, не нужно их путать. При вложениях в развитие сайта можно выйти в топ-1 без закупки ссылок вообще, но только этого добиваться нужно годами, а в отрасли такие сроки тупо никому не понятны. :)
Если бы не видели...
Все будет зависеть от денег в отрасли и от текущих на тот момент алгоритмов поисковых систем. :)
От этого зависит сложность мысли исследователя, да. Но не факт, что сложная мысль и сегодняшние объемы выборок могут однозначно помочь.
Есть гипотеза, что свойства пары (запрос, документ), или, по-другому, факторы, могут пересчитываться в разное время, ввиду сложности пересчета. Т.е., при одноразовом изменении свойств оптимизатором, релевантность документа будет меняться несколько раз, пока все не пересчитается окончательно. После чего релевантность более-менее стабилизируется.
А если учелся? Или учелся, но не со всех доноров? ;)
Ну, некоторые виды сео-запросов давно получили спец-выдачу. Возможно, что и такие тоже.
Не обязательно, он может искренне верить в свою методу. :D
Ну на самом деле даже расставшись со стереотипами не особо легко становится. :D
Выбора у сео-исследователя нет - он должен выдать результат, иначе может остаться без масла на своем куске хлеба. Поэтому, не зависимо от стереотипов и объемов выборки для исследований, все пытаются натянуть хоть какую-то логику на имеющиеся данные. Кто-то при этом может и угадать, но не факт, что это будет человек с самыми большими выборками или с самыми передовыми взглядами на текущее ранжирование. :)
k0nstant, Вы не учли целой кучи моментов.
Ну и еще, более забавные замечания:
Вы думаете, что у гугла нет асессоров?
Оценивать нужно геозависимые запросы в первую очередь. Там сейчас Яндекс резко ушел вперед. По геонезависимым - пока примерно паритет, с небольшим ростом преимущества Яндекса.