Сергей, это один из самых толковых постов в ветке :). Тут, в основном, люди повально строят теории, основанные на домыслах, что-то типа долларов, не подкрепленных золотым запасом ;).
Мой опыт показывает, что основой для измерения траста является структура ссылок в связках донор-реципиент. Кстати, как хороший пример такой структуры, можно привести Википедию :). Она ведь в выдаче появляется не только потому, что на нее ссылок много поставили или ручками завысили траст.
:). Такой запрос не найдется.
Теория ТС занимательна. Скажу больше, она соответствует здравому смыслу. Я не силен в математике, однако выводы из чисто логических рассуждений получились похожи (про равномерность распределения, смещение "оси").
На мой взгляд траст - это качество сайта (домена) в целом. Я даже пытался разработать алгоритм, его вычисляющий. Но именно в силу того, что есть величины, влияние которых нельзя измерить конкретными числами или формулами, пришлось лезть в теорию вероятностей.
Список параметров, которые, на мой взгляд, учитывают траст, гораздо скромнее. Около 20. Вот только часть из них плохо поддается алгоритмизации (например, юзабилити или учет санкций и истории домена).
Мне кажется, в среде оптимизаторов много музыкантов. Конкурс стартовал, призы обозначены.
Жду участников :)
Все зависит от качества идей.
Обычный сайт для рекламы...
Готов к работе :).
Кстати, советую заглянуть на новое предложение об услугах: http://smartonweb.ru
А я не фанат, но Вольф, сцуко, объективный ;).
Это факт. Я посмотрел недавно, что сделали с моим сайтом, который я продал...было жалко. Хотя отдавал, вроде, в хорошие руки.
ИМХО, траст, скорее, используется еще до собственно, формирования СЕРПа, т.е. позволяет заранее отмести те сайты, которые точняк в выдачу не войдут.
А в остальном - используется для формирования голосующей способности как донора.
ИМХО: RootSet отбирается по авторитетности и полезности для человека. И может быть вообще не релевантен запросу с точки зрения ПС.