G00DMAN

G00DMAN
Рейтинг
122
Регистрация
19.04.2008
praide:
1. На этапе прюнинга точка входа на сайт отсекается (часто главная), в выдаче в попе мира появляется менее релевантная страница.

Не, на этапе прюнинга такие действия бессмысленно делать.

praide:
2. Просто просаживание позиций (из ТОП10 в ТОП20, а то и в ТОП100), точка входа остается та-же.
ИМХО идет сравнение анкор-листа с неким "идеальным" из матрицы оценок асессоров. Анкор-файл и контент точки входа анализируются матрикснетом в связке. Как-то так.

Нет никакого "идеального" анкор-листа и быть не может.

praide:
Вот эту тему обсудить было-бы интереснее. Исходную матрицу выборки, что туда входить может, а что нет.

Зачем множество оцененных документов по запросам называть матрицей? Чтобы еще больше запутать оптимизаторов? :)

Собственно, все выводы о наличии спам-фильтра на анкор-лист делаются из более-менее одного и того же эксперимента. Не меняя доноров, меняются тексты анкоров, с изменением % точных вхождений. И, если сайт после этого поднимается в выдаче, то делается вывод о наличии фильтра.

Я бы хотел заметить, что данный эксперимент такого вывода сделать не позволяет. :D

При смене текста анкор-листа изменится множество факторов пары (запрос, документ), скорее всего - тысячи факторов. Соответственно, функция ранжирования насчитает документу совершенно другую релевантность запросу, которая может оказаться и выше предыдущей. А может и не оказаться. И % точных вхождений конечно же теоретически может быть самым важным фактором (если такой фактор вообще существует), но практически этого не определить таким экспериментом. :)

ExpressAutoComUa:
2. Продвижение по ВЧ не всегда полезно с точки зрения стабильности.

Иногда без него никак. :D

ExpressAutoComUa:
3. Метрика может притормаживать сайт при больших пиковых нагрузках на сервер.

Ну так это от сервера зависит, не у всех бюджетные варианты. :)

ExpressAutoComUa:
4. Если нужен многотысячный рост трафа не ставят всякие там панели, метрики и чужие счётчики.

Почему же, многие ставят. Независимые счетчики - хорошие пузомерки для взрослой монетизации. :)

ExpressAutoComUa:
Дык работает он, и даже по старым проектам наглый бомбинг не катит.

Наглый бомбинг тут ни при чем. Речь шла не о размере анкор-листа, а о его сео-спамности по отдельным анкорам.

wolf:
Может, имеется в виду ссылочный взрыв?

Может быть, с одной стороны на молодом сайте переспам без ссылочного взрыва не возможен, но с другой стороны - фильтр накладывался на узкую группу ключей и на весь сайт, такой локальный "ты последний". Что вроде не характерно для фильтра за взрыв.

ExpressAutoComUa:
Это вообще не новый тренд. Вполне естественно, что траф по нужным запросам всегда актуален. Но, важен вопрос количества этого трафа, т.к. это может ощутимо влиять на продажи.

Важен еще и вопрос конверсии. По утверждениям спецов, в некоторых темах конвертируются исключительно ВЧ.

ExpressAutoComUa:
А в поведенческие факторы для сайтов с посещаемость больше 10 тыс. хостов в сутки по НЧ-СЧ я не верю. Не наблюдается просто такого в природе при стабильной посещаемости на различных проектах от 10 до 100 тыс. в сутки. Теория иногда бывает очень далека от практики. Когда сайт хорошо и стабильно посещаем, то и народ его смотрит (никуда не денется), а не наоборот.

Тут не однозначно пока все. Один из моих коллег, имеющий сайт с почти 100К коммерческого трафа, считает, что поведенческое может влиять. У него стоит Яндекс.метрика и часть запросов просела, как вариант - из-за плохого поведенческого по этим запросам.

Что касается спамности анкор-листа, то в последнее время я не наблюдал такого, не было примеров. Но в Арзамасе для молодых сайтов спам-фильтр был жестким, почему бы ему и сейчас не работать?

DMeetya:
Вопос к G00DMAN'у!
Что это? И какие тереотический и практические смыслы это имеет?

Никакого. :D

Там должно быть 1+TF в знаменателе, аналогично и в метрике W4. Формулы при размножении мутировали почему-то. :)

P.S. Вот кто-то уже и формулы попытался осмыслить. :)

G00DMAN добавил 12.07.2010 в 20:27

В статье, которая по ссылке в подписи, ашипки исправлены, спасибо DMeetya. :)

overnight:
Сегодня тренд это, как мне кажется, трафик.

Это от безысходности и в целом это не так. Тут есть два достаточно существенных аргумента против: если у оптимизатора возникли проблемы с выводом запросов, то не нужно думать, что они только по ВЧ, по НЧ появились те же проблемы и вывод запросов в прежних объемах будет затруднительным. Ну и появление в нише трафикового сео кучи конкурентов еще больше усложнит задачу. Так что сомнительный тренд. Хотя направление будет развиваться, как было и раньше.

overnight:
На мой взгляд, в этой гонке поисковая система слишком в выигрышном положении.

Поисковая система не гоняется с оптимизаторами. Просто так сложилось, что текущий алгоритм ранжирования в Яндексе оказался гораздо сложнее. :)

overnight:
Вот взять Ваш последний доклад, Вы получили замечательные результаты, Вы их используете, но какая цель у этого? Чистый эксперимент и удовольствие от сделанного?

Цель исследований - получить преимущества в отрасли, цель доклада - попытка привлечь в сео кучу очкастых математических ботанов, которые бы запинали текущих околоматематиков (типа нас с Людкевичем) тощими ногами в вонючих носках. :D

overnight:
Вы верите, что можно сделать сайт с маленьким бюджетом, который, только из-за того, что он такой прекрасный, попадёт мигом в топы? Я не очень.

Маленький бюджет на ссылочное и маленькие затраты на развитие сайта - разные вещи, не нужно их путать. При вложениях в развитие сайта можно выйти в топ-1 без закупки ссылок вообще, но только этого добиваться нужно годами, а в отрасли такие сроки тупо никому не понятны. :)

overnight:
Просто из-за того, что сегодня поиск — это стандартизация на основе оценок асессоров, а они, оценивая коммерческие топы, сайтов с маленьким бюджетом просто не видят.

Если бы не видели...

overnight:
Но вот только, предполагаю, что лет через пятьдесят сообщение о том, что кто-то моделирует выдачу поисковой системы будут публиковаться исключительно в жёлтой прессе рядом со статьями «В Индии родился ребёнок со слоновьими ногами» и «Девочка из Рязани уже 15 лет питается солнечным светом».

Все будет зависеть от денег в отрасли и от текущих на тот момент алгоритмов поисковых систем. :)

wolf:
Тут, пожалуй, многое зависит от кол-ва продвигаемых сайтов.

От этого зависит сложность мысли исследователя, да. Но не факт, что сложная мысль и сегодняшние объемы выборок могут однозначно помочь.

k0nstant:
Проверять начинаю через ап после индексации ссылок. Уточните пожалуйста, какие именно свойства вы имеете в виду.

Есть гипотеза, что свойства пары (запрос, документ), или, по-другому, факторы, могут пересчитываться в разное время, ввиду сложности пересчета. Т.е., при одноразовом изменении свойств оптимизатором, релевантность документа будет меняться несколько раз, пока все не пересчитается окончательно. После чего релевантность более-менее стабилизируется.

k0nstant:
Если стат вес не учелся, то это даже лучше. Он не будет влиять на выдачу по использованным анкорам.

А если учелся? Или учелся, но не со всех доноров? ;)

k0nstant:
Все выдачи между собой отличаются. Но насколько она спец. и насколько подобные анкоры Яндекс выделяет, я сомневаюсь.

Ну, некоторые виды сео-запросов давно получили спец-выдачу. Возможно, что и такие тоже.

Dubovoj:
А вот тот, кто в эпоху матрикснета скажет, что умеет прогнозировать передаваемый ссылкой вес акцептору, явный шарлотан.

Не обязательно, он может искренне верить в свою методу. :D

wolf:
Еще раз повторю - расставаться со стереотипами очень тяжело. Проще придумать для себя какой-нибудь новый фильтр, оставаясь в привычной, но безнадежно устаревшей системе координат. Только вот со временем фильтров приходится придумывать всё больше и больше ;)

Ну на самом деле даже расставшись со стереотипами не особо легко становится. :D

Выбора у сео-исследователя нет - он должен выдать результат, иначе может остаться без масла на своем куске хлеба. Поэтому, не зависимо от стереотипов и объемов выборки для исследований, все пытаются натянуть хоть какую-то логику на имеющиеся данные. Кто-то при этом может и угадать, но не факт, что это будет человек с самыми большими выборками или с самыми передовыми взглядами на текущее ранжирование. :)

k0nstant, Вы не учли целой кучи моментов.

  • Изменение свойств документа не имеет прямой корреляции с выдачей. (Сколько еще раз нужно это написать, чтобы до всех дошло?)
  • Проставляя на документ ссылки, Вы изменяете ряд свойств документа по запросу, причем эти свойства могут пересчитываться не одновременно, а в разное время. Вы когда начинаете проверять? ;)
  • Пэйджранк (стат. вес) изменяется после его пересчета. Вы уверены, что в момент Вашей проверки он уже пересчитался?

Ну и еще, более забавные замечания:

  • Если предположить, что акцепторы в Вашем опыте получили равную релевантность запросу, то как они раcположатся в выдаче? ;)
  • Вы не думали о том, что для спец. анкоров оптимизатора может существовать аналогичная спец. выдача от Яндекса? :D
dlyanachalas:
Ручным оценкам ассессоров, вы хотели сказать? ;)
Ищу каждый день что-то, слива не замечал. А вот обратный слив - постоянно.

Вы думаете, что у гугла нет асессоров?

Оценивать нужно геозависимые запросы в первую очередь. Там сейчас Яндекс резко ушел вперед. По геонезависимым - пока примерно паритет, с небольшим ростом преимущества Яндекса.

Всего: 1960