А точно ли это сохраненка? Больше похоже на острова, когда страницу размечают посредством schema.org. Только до этого для раскрытия было "троиточие", а сейчас "уголок". У вас кстати в URL результатов поиска никаких дополнительных GET параметров не было?
Страницы с результатами поиска - для Яндекса являются спамом, конечно их надо закрывать.
Чтобы это посчитать нужно знать:
Откуда предлагаете брать эти данные?
Ставить LiveInternet бесмысленно, т.к. он показывает не "реальные", а "предполагаемые" поисковые запросы (пруф):
Масштаб трагедии внушаитЪ:
Пруф
Так каким образом можно определить dPR=0? :)
А зачем вам мысли теоретегов?
Пошерстите топ, на предмет наличия сайтов, у которых в выдаче и основной ресурс и аффилиаты на МП.
Напишите Платонам с вопросом "WTF?", они вам ответят, что никакого фильтра аффилиатов в природе нет, затем получите добро на создание аналогичной структуры.
Профит :)
В приведенном выше скриншоте тоже из текста
Идея хорошая, по сути за разные группы факторов вы начисляете донору N баллов и если итоговое значение больше заданного порога, то покупаете ссылку, иначе - не покупаете. Вопрос как это реализовать технически? Вот допустим прогнали вы 100500 ссылок винком, у вас осталось 5000 ссылок, которые вроде-как проходят по начальному фильтру. Дальше надо пробить уже вычисляемые метрики. Вы планируете это делать через API, или как-то по другому?
Если не секрет, на какой выборке вы замеряли?