- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В переводе на русский это звучит так:
1. Отберите мне все сайты релевантные запросу и отсортируйте их по степени доверия
2. Отберите мне все сайты, со степенью доверия больше X (медианного значения, например) и отсортируйте их по степени релевантности запросу
Вариант № 2 требует в разы, если не в десятки раз, больше ресурсов - а значит, может не рассматриваться.
AiK, Большое спасибо за статью. Было очень интересно.
Но возникли вопросы:
1. Т.к. никакая поисковая система, кроме WebAlta свой TR не открывает, то единственное, что можно использовать для его измерения - это WTR.
2. WR в принципе сильно коррелирует с PR, т.е. страница с большим PR обычно имеет большой WR. Можно предположить, что WTR должен ьоже сильно коррелировать с Google PR и Яндекс TrustRank.
3. Посмотрел несколько сайтов в SAPE, которые явно ссылались на все подряд. TrustRank у них был нормальный. Может WTR пока работает не особенно хорошо?
И еще одно предположение. Мне кажется, что TR должен учитываться главным образом не при выдаче сайта по поисковому запросу, а при передачи им веса по ссылкам другим сайтам.
Т.е. логика такова: Если ты ссылаешься на плохие сайты ты сам можешь не являться плохим сайтом (есть много сайтов, которым спамят гостевую книгу и т.д.). Но если ты ссылаешься на плохие сайты, то значимость твоей ссылки уменьшается. Такой подход позволяет эффективно бороться с сапой ИМО.
Вариант № 2 требует в разы, если не в десятки раз, больше ресурсов - а значит, может не рассматриваться.
Вообще-то при нормальной организации индекса второй вариант облегчает построение выдачи, т.к. она строится не по всей коллекции документов, а по её части. В случае медианного значения TR - коллекция уменьшается в два раза. А вот дополнительная сортировка индексом не облегчается
1. Т.к. никакая поисковая система, кроме WebAlta свой TR не открывает, то единственное, что можно использовать для его измерения - это WTR.
2. WR в принципе сильно коррелирует с PR, т.е. страница с большим PR обычно имеет большой WR. Можно предположить, что WTR должен ьоже сильно коррелировать с Google PR и Яндекс TrustRank.
3. Посмотрел несколько сайтов в SAPE, которые явно ссылались на все подряд. TrustRank у них был нормальный. Может WTR пока работает не особенно хорошо?
А разве Вебальта открывала алгоритм вычисления своего Ранка? Если нет, то с таким же успехом можно смотреть на показания счётчика top100, на том основании, что он тоже имеет отношение к поисковику ;)
И еще одно предположение. Мне кажется, что TR должен учитываться главным образом не при выдаче сайта по поисковому запросу, а при передачи им веса по ссылкам другим сайтам.
Т.е. логика такова: Если ты ссылаешься на плохие сайты ты сам можешь не являться плохим сайтом (есть много сайтов, которым спамят гостевую книгу и т.д.). Но если ты ссылаешься на плохие сайты, то значимость твоей ссылки уменьшается. Такой подход позволяет эффективно бороться с сапой ИМО.
В принципе да, но ведь никто не мешает отцеплять от выдачи по некоторым запросам документы с низким TR.
Угу. Трастранк для того и вводится, чтобы ты не ссылался на "какие-то" сайты, а только на качественные. Если проще - то не торговал ссылками через автоматические системы :D
AiK, трастранк сайта не измеряется при торговли ссылками. Это точно....Есть куча примеров, когда сайты висят в топе долгое время и на только потом начинают торговать то ни каких проблем у них не возникает.
Трастранк изменяется в совокупности некого коктейля факторов...Даже скорей всего коктейля внутренних факторов..но здесь точно сказать не возможно...
А разве Вебальта открывала алгоритм вычисления своего Ранка? Если нет, то с таким же успехом можно смотреть на показания счётчика top100, на том основании, что он тоже имеет отношение к поисковику
Нет, но она открыла 2 ранка:
1. WeAlta Rank - Тоже самое, что и PR
2. WebAlta Trust Rank - Похоже по крайней мере по названию. ИМО алгоритмы должны быть весьма схожи, т.е. ИМО Яндекс, Гугл и Вебальта должны понимать понять TrustRank примерно одинаково.
возвращаясь к теме ТС. В плане даже-если-имхо существования подобия TR в Яндексе, он (TR) должен был бы (по логике) быть сильно связан с непотом (суть понятий схожа), а с учетом тучи непот-сайтов в весьма и весьма конкурентных ТОПах, [имхо]можно предположить, что даже если и есть что-либо подобное (TR) в Яндексе, то это пока не играет особой (или вообще) роли в ранжировании. [/имхо]
ИМО Яндекс, Гугл и Вебальта должны понимать понять TrustRank примерно одинаково.
не факт...у каждого из этих поисковиков свой алгоритм ранжирования. TrustRank является частью алгоритма ранжирования, следовательно и он может быть разным у каждого из поисковиков.
AiK, трастранк сайта не измеряется при торговли ссылками. Это точно....Есть куча примеров, когда сайты висят в топе долгое время и на только потом начинают торговать то ни каких проблем у них не возникает.
Трастранк изменяется в совокупности некого коктейля факторов...Даже скорей всего коктейля внутренних факторов..но здесь точно сказать не возможно...
Ну тык по патенту вроде как внутренние факторы и не причём. Я так понял (из обзора патента), что при разработке взяли небольшую выборку разных сайтов и вручную определили пороговое значение факторов, указывающих на наличие спама, а затем уже интерпритировали эту модель на всю остальную базу. Ноу-хау модели заключалось в том, что с помощью небольшой выборки вручную проверенных сайтов и анализа исходящих ссылок, смогли с высокой точностью прогнозировать качество всей выборки.
1. WeAlta Rank - Тоже самое, что и PR
2. WebAlta Trust Rank - Похоже по крайней мере по названию. ИМО алгоритмы должны быть весьма схожи, т.е. ИМО Яндекс, Гугл и Вебальта должны понимать понять TrustRank примерно одинаково.
Крайне оригинальное утверждение :)
Имхо, оно есть в Яндексе и давно, и не 3-х ступенчатое...
как минимум с прошлой конференции ашманова
Если трастранк и был, то до обновления однословного алгоритма.
Примером смотрю запрос "лизинг" - до смены алгоритма, в топе болтался один из моих порталов (а на нем про лизинг - только одна страница да с внутряка ссылок кое что, внешки тоже так себе) подозреваю что болтался там именно из за траст ранк порталу как хорошему ресурсу.
Но теперь в топе только сайты непосредственно посвященные лизингу и это правильно с одной стороны. Поэтому подозреваю, что теперь трастранк у Яндекса не прокатывает (если он был)
А вот в гугле как висел высоко на одном месте, так там и продолжает висеть по этому слову (хотя после него много более релевантных сайтов про лизинг).