В течение последних трех месяцев Яндекс тестировал новый подход к определению релевантности документов

В течение последних трех месяцев на части запросов Яндекс тестировал новый подход к определению релевантности документов. Об этом сообщила Екатерина Гладких, аналитик безопасного поиска Яндекса, в ответ на запрос редакции Searchengines.ru.

Екатерина подробно описала, что происходит с выдачей Яндекса последние несколько месяцев и почему:

«Традиционный подход заключается в использовании заранее имеющейся информации о факторах, извлекаемых непосредственно после индексации документа, а также последующей "корректировке" релевантного топа с учетом пользовательского поведения на сайте.

Однако априорной информации о документе иногда недостаточно для определения потенциальной пользы в решении поисковой задачи. Некоторые полезные или просто новые документы могут из-за этого ранжироваться низко и, следовательно, потребуется много времени для накопления достаточного количества данных об удовлетворенности пользователя.

Поэтому имеет смысл периодически показывать в области видимости документы, по которым пользовательской информации недостаточно для принятия решения о полезности документа; при этом априорная релевантность такого документа может оказаться не самой высокой.

Таким образом, за счет возможного краткосрочного снижения качества удается получить информацию о документах, участвующих в поиске, и выиграть в качестве стратегически.

На практике невозможно для получения обратной связи от пользователей показать на топовых позициях всё множество документов, которое попадает в выдачу. Поэтому мы применяем комбинацию так называемого эксплуатирующего подхода, основанного исключительно на априорной релевантности документа, и экспериментирующего, - целью которого является сбор максимума информации о документах на основе поведения пользователей.

Сегодня многие компании проводят исследования в этой актуальной области информационного поиска. На конференции WWW'15 во Флоренции статья наших сотрудников, посвященная онлайн-обучению алгоритма ранжирования в терминах задачи о многоруких бандитах, была номинирована на Best Paper Award. Мы гордимся их достижением и рекомендуем статью всем заинтересованным специалистам».

Напомним, что в течение лета многие вебмастера столкнулись с неизвестной аномалией - регулярными скачками позиций и видимости в Яндексе. Тема широко обсуждалась на форуме Searchengines.guru, многие специалисты выдвигали свои версии причин происходящего. В частности, версию о тестировании Яндексом изменений и корректировке алгоритмов в небывалых ранее масштабах, выдвигал Константин Скобеев (Скобеев и Партнеры). Специалисты компании «Пиксель Плюс» также исследовали этот феномен, и высказали свои предположения.

subscribe

Подпишитесь на рассылку SearchEngines

— Статьи мировых экспертов

— Аналитические обзоры

— Важные новости

— Горячие темы с нашего форума

Google: HTTPS даёт преимущество при выборе между двумя равными результатами поиска

Во время прошедшего на днях видеоинтервью инженер отдела качества поиска Google Гэри Илш (Gary Illyes) обсудил влияние HTTPS на ранжирование сайтов в выдаче и озвучил последние...

Google рекомендует поддерживать 301 редиректы активными минимум год

Специалист отдела качества поиска Google Джон Мюллер (John Mueller) рекомендует поддерживать редиректы с номером ошибки 301 (moved permanently) активными минимум год после...

ФАС признала Google нарушившим закон о конкуренции

Федеральная антимонопольная служба (ФАС) РФ признала американскую интернет-корпорацию Google нарушившей закон о конкуренции по жалобе Яндекса

Механизм работы нового АГС Яндекса такой же, как у Минусинска

У сайтов с хорошей посещаемостью (от 700 и выше), высокими показателями качества и социальной активности велик шанс попасть под новый АГС Яндекса

Google тестирует новый интерфейс быстрых ссылок в результатах поиска

Англоязычные пользователи заметили, что Google снова экспериментирует с интерфейсом быстрых ссылок в результатах поисковой выдачи. В текущем тесте они расположены в один ряд

Google: Наличие микроразметки на сайте может стать фактором ранжирования

Есть вероятность, что в будущем Google будет рассматривать наличие микроразметки структурированных данных на сайте в качестве сигнала для ранжирования