Далеко не все долго висят на 1-м месте, как прибитые гвоздями.
Исходя из плотности результатов
В какой-то мере - наверное, да. Например, ради спортивного интереса. ;)
Я не готов ответить на это вопрос. :) И небольшое уточнение (чтобы не было двусмысленности) - Текарт не продаёт поисковый трафик.
Многим ли здесь присутсвующим заказчик платит именно за это?
Если Вы не заметили, речь не идет о том, есть рандом или нет. Речь идет о том, насколько он вероятен сам по себе.
Некий резон есть. Заказчик, привыкший платить за позицию, скорее пойдет в Директ, чем переменит взгляд на вещи и станет платить за трафик или что-то еще.
Ну, так я ж сказал - рандомить только внутри группы с достаточно близкими численными значениями релевантности, по которым идет окончательное ранжирование. Т.е., там где большой разброс - 1-2 релевантных сайта и мусор, то эти 1-2 сайта будут рандомиться меж собой на 1-2-й позиции :), а мусор будет рандомиться между собой ниже в выдаче. Алгоритм несложный.
В том-то и дело, что смысла для Яндекса в этом особого нет. Если только кинуть подлянку тем, кто торгует местами в выдаче. Типа "здесь вам не тут!" :)
Не факт. Рандом ведь вещь такая, что сегодня хуже, а завтра - лучше. За долгосрочный период (достаточное количество циклов рандома) трафик должен быть примерно тот же, что и без рандома
Опять же чисто теоретически, если рандомить выдачу с умом, т.е. выделять группы документов с достаточно близкими численными значениями релевантности запросу и рандомить внутри этих групп, то на итоговой релевантности выдачи это нисколько не скажется. Давайте взглянем на любой конкурентный коммерческий запрос и представим, что внутри первой, положим, двадцатки будут периодически (через день-два) рандомиться места сайтов, сейчас составляющих эту двадцатку. Разве выдача станет объективно хуже?