G00DMAN

G00DMAN
Рейтинг
122
Регистрация
19.04.2008
wolf:
А что за теория имеется в виду?

Та, которую твои коллеги по ветке вебэффектора называют "текартовской". ;)

wolf:
У "бабушки" была счастливая возможность довольно точно оценить адекватность ;)

В это я пока верю. Но считаю высоковероятным вариант, что "бабушка" ошиблась.

wolf:
Если бы у бабушки были...

Если бы у бабушки были методики проверки "рабочести" ссылок... :D

Собственно, все крутится вокруг этого и упирается в вопрос веры в результаты исследований "бабушки". Но, если вспомнить предыдущую теорию "рабочести" от той же "бабушки" времен Текарта (и немного после), то верится уже с трудом, подозрительно все. Т.е. "бабушка" может и искренне верит в свою методу, но я, например, уже сомневаюсь. ;)

mhz:
Но -50 — это не слишком похоже на «ТС». Особенно, если рел. страница не меняется. «ТС» изначально (правда, уже прошло много времени) отличался чёткими симптомами и, соответственно, простотой определения.

Не понятно, почему ты так упростил определение, вроде изначально не было никакого -100, было хитрее как-то.

mhz:
К чему я это спросил у medea? Есть у меня предположения, что помимо фильтра «ТС» есть ещё некий вид пессимизации по запросам, характеризующийся движением скорее «-30...-50», чем «-100...-300», свойственных «ТС».
Может и бред. Просто собираю информацию...

Я считаю, что нет никакого -100 в спам-фильтре, далеко не всех именно так далеко выкидывали, а появление большого числа фильтров одновременно маловероятно.

mhz:
Имхо, не бред. Мне тоже кажется, что в «ссылочные» апдейты могут просто записываться анкоры в анкор-файлы, а стат. вес может обновляться и отдельно. Но это тоже только догадки. :)

Стат. вес наверняка отдельно, нет смысла приурочивать его к "ссылочным" апдейтам. А вот "стат. вес по запросу" - вообще не очевидный фактор, может и нет таких сейчас.

mhz:
То есть, есть и такие, которые упали на 50 позиций и рел. страница не поменялась?
Думаете, это «ТС»?

А почему нет? Фильтр занижает релевантность одного документа, что не означает, что эта релевантность не останется максимальной по запросу на сайте.

По поводу задержки с влиянием изменений свойств документа на выдачу я вроде уже писал, что самая простая гипотеза видится такой. Среди факторов ранжирования появилось достаточно много метрик, требующих для вычисления определенных ресурсов. Поэтому "на лету" вычислять не успевается и запускаются независимые параллельные процессы, обсчитывающие метрики на документах, у которых изменились какие-то свойства (например изменился размер документа, дата создания или появились новые ссылки). Причем не понятно, сколько таких процессов запущено одновременно, т.е. разные факторы измененного документа могут быть обсчитаны в разное время и выложиться в разные апдейты.

P.S.komdir, классно отжигаете. :D

Muff:
Пессимизация может накладываться постфактум по ряду модельных критериев, так?

Не обязательно по модельным. Хотя, ввиду того, что для модели собирают параметры по максимуму, то пессимизирующие метрики строятся на похожих параметрах.

Muff:
Можем ли мы говорить об надстройке "соответствия поведения сайта, некоторому модельному поведению" к матрикснет? Какой, скажем, является "портяночный фильтр".

Что Вы называете "поведением сайта"?

wolf:
А можно просто наделать кучу факторов на основе Y, вернее, на основе "хорошести" ссылок...

Можно, но это не поможет. Т.к. асессор, не видя оценки ссылочного, оценит документ с плохими X-Y так же, как и с хорошими Y. И такие факторы на основе только Х будут путать систему, сходимость обучалова сильно пострадает, а выигрыш не особо понятен. На самом деле мы этот вопрос немного странно обсуждаем - я на первой странице писал о том, что пессимизирующие фильтры (например за текстовый спам) проще делать после ранжирования, оно наверняка так и происходит. Ты как-то перевел все на "хорошие" ссылки. Их я не готов обсуждать, т.к. для начала нужно в них верить, а я пока не видел убедительных доказательств. Но, если допустить, что такие "элитные" ссылки есть, то да, они как-то могут и факторами в матрикснете выделяться, как вариант. В пессимизирующие фильтры за отсутствие ссылок Y вообще сложно поверить. :)

Cossack:
После этой фразы можно уже не продолжать, но я зафиксирую две идеи:

1. Нельзя сравнивать голову с жопой. Чтобы понять смысл изменений нужно сначала их увидеть, а не строить догадки на основе случайной информации. И еще: откуда вы взяли, что ранжирование для разных тематик одинаковое 🤣?

Для меня это очевидно. Одни пытаются что-то сравнивать и что-то увидеть, а другие аналогичные матрикснету и более сложные задачи неоднократно решали, потому им в некоторых вопросах не нужно строить догадки. ;)

Cossack:
2. Результат достигается простым исключением этой страницы из индекса, и ее влияния на результаты сайта. Потом можно оценить количество Г связанного с конкретным сайтом, соотнести его со средним уровнем Г в Рунете и отранжировать еще по этому фактору 🤣.

Не катит. В последнем фильтре за текстовый спам из индекса документы практически не выкидывали. Была обычная пессимизация релевантности по запросу. :)

SAlex:
Возьмем страницу из топа и поместим на нескольких площадках с разными параметрами (количество страниц, тематика контента, возраст и др.). Как полагаете ПС определяет автора, и определяет ли вообще ?

Вопрос не совсем в тему топика, и ответа на него однозначного нет - всякое бывает. Прямой корреляции между "еще с сайта" и авторством также нет, там сложнее все. Яндекс пытается этот вопрос решать, но задача сложная, в ближайший год-два красивого решения еще не будет.

Dubovoj:
Так почему не проще просто X выкинуть из индекса?

Не X, а X-Y, т.е. все внешние, которые не вошли в "хорошие". Потому что:

  • такого не наблюдается
  • а как тогда продавать вайт-листы? :D
Cossack:
Нет смысла писать о разных по тематике сайтах.

Почему нет? Ранжирование вроде для всех тематик одинаковое.

Cossack:
Речь в любом случае идет о сайте, уже только потому, что его страницы связаны между собой тематически и... семантически :D

Предложите хотя бы один повод для наказания всего сайта, если на одной из его страниц зафиксирован спам.

Cossack:
Матрица... Обнуление или изменение значений для отдельных страниц приведет к снижению релеватности всего сайта, и наверх поднимутся другие страницы с самыми высокими значениями на конкретный момент.

Что еще за матрица? 😮

Cossack:
Странно делать такие выводы на примере одного сайта. Тем более, что исключение "боевых" страниц могло просто снизить релеватность сайта, и поэтому остальные страницы ушли вниз. Ведь до этого их там не было... так?

Не так. До этого они были "в уме", но не показывались, т.к. проигрывали в накрутке "боевым". Таких примеров не один, их было немеряно в то время, особенно в темах про апы. Если допустить, что пессимизация за спам занижает релевантность запросу всего сайта, то почему меняется релевантная страница? Или пессимизируем страницы сайта по разному, по сложной формуле? Мне кажется, что слишком мудрено выйдет, куча лишних не нужных вычислений.

Всего: 1960