Надо покопаться в этом гриди. Походу, на буках обновили формулу-то. Витать, шустрый обучающий алгоритм.
TreeNet эволюционировал в MatrixNet? :) А что тогда про генетику на РОМИП'2009 вещали? Типа перспектива на будущее? По классификации "Learning to Rank for Information Retrieval" RankBoost (насколько я понимаю, тот самый гриди) - это 2003 год, а генетический RankGP - таки 2007-й
Квадрат разности я там вижу, как один из примеров функции потерь (Examples of loss functions).
У меня есть единственное объяснение этого - это то, что запросы с плохой выдачей тут же кидают на оценку асессорам, затем включают в обучающую выборку и тут же переобучают алгоритм. Тогда большая движуха именно по этим запросам объяснима. Но данный метод представляется нерациональным с точки зрения ресурсов - каждый день строить новую функцию ранжирования, наверняка весьма ресурсоемко. Целесообразней набрать кучу плохих примеров, скопом закинуть в обучающую выборку и сделать большой пересчет. Хотя изнутри, оно, конечно, виднее. :)
Сначала - выбор вида функции, затем - определение коэффициентов
Вы серьезно полагаете, что в Яндексе запросозависимая архитектура? :)
Естественно. Ваше округление начинает выглядить глупо
Вообще-то в оригинале речь шла о "нескольких тысячах"
Это называется - статистика ;)
Похоже на то при таких-то фантазиях 😂
Анекдот про апдейт в строительной тематике уже стал бородатым