Lucky-13

Lucky-13
Рейтинг
55
Регистрация
20.08.2009
Marinka:
Согласна, кто ж спорит. Но в данной теме вы видели хоть одну мысль достойную прочтения по-поводу того, почему такая выдача по а5?

Тут уже неоднократно замечали, что новый алгоритм проявляет нездоровую любовь к ключевикам в урле + википедия гипертрастовый ресурс, очевидно же.

Как я понял сейчас алгоритм основан на нейросетевой технологии:
-по сотням или тысячам критериев оцениваются сайты на соот. тем или иным запросам
-выявляются пары релевантные пары: страница-запрос
-которые попадают в обучающую выборку (назовем их эталоны или эксперты)
-на основе этих сайтов экспертов строится вся выдача (по сути это прогнозирование)
-таким образом им не надо писать ф-ию определения релевантности, после обучения нейронной сети они получают несколько готовых ф-ий ранжирования документов
-после чего выбирается из всего множества полученных функций одна с минимальными потерями
-для нее рассчитываются потери (насколько я понимаю - это вероятность или величина ошибки ранжирования)
-на след. итерациях уменьшаются потери и т.д.

Идея интересная, но в таком случае все продвижение будет строиться на стремлении соответствовать сайту-эталону, то есть на упрощенной формуле того, что сейчас мы называем "анализом конкуренции".

Если принципы ранжирования базируются на описанной вами идее, то это приведет к банальному полуклонированию ресурсов.

Всего: 102