1) проверить проиндексированые страницы сайта донора
2) проверить через расширеный поиск или язык запросов ссылающиеся страницы, содержащие текст анкора
3) если сайт есть в ссылающихся это не значит что он не зафильтрован
4) если сайта нет в ссылающихся это не значит что ссылка с него не учитывается. Возможны разные варианты.
5) пункты 1-2 а также много других полезных параметров можно проверить с помощью сервиса be1.ru/stat
6) то что в ссылающихся сверху наиболее релевантные страницы - неправильно
Если накручивать, то нет так же в лоб. От рефа в ифрейме можно избавиться путем несложных манипуляций. А насчет азиатского трафа - я бы не стал рисковать.
Мне, по крайней мере, известны лучшие варианты
Смешно даже обсуждать тут рендом, вроде не глупые люди собрались. Если бы я все интересные сайты добавлял в закладки, то уже давно запутался бы в них. Я не помню урлов, я помню как нашел. Вчера я искал кроватку в детскую, а сегодня созрел купить и если бы не нашел этот сайт, и такое повторялось бы систематически, я бы ушел с этой ПС без оглядки. Активные серферы - костяк пользователей поисковых систем, сделают то же самое. Вот и весь Ваш рендом.
Начинайте оптимизацию с внутренних факторов. (Сессии убрать, модуль Ultimate SEO URL, тайтлы нормальные сделать, заголовки, итп.)
Потом уже будете думать о внешних
Вы не могли бы более связно, желательно тезисно, изложить свои мысли? Лучше в личку, чтобы не засорять топик
Ну что Вы, право, вопрос-то был про беки. Пользователю, когда он смотрит "кто ссылается", нужно знать все сайты ссылающиеся на его сайт. Чем больше таких сайтов выявит пользователь, тем точнее он будет анализировать текущую ситуацию. Поэтому релевантными результаты, когда в беках показываются не все сайты известные поисковой системе, назвать нельзя. Это ни что иное, как борьба с оптимизаторами, тем более на это тратятся столь драгоценные вычислительные мощности :) Может хоть ссылку сделаете в беках "искать то же самое в yahoo site explorer"? :)
А Вы очередной (в хорошем смысле) представитель яндекс тут, на форуме?
ну вот, апдейт, суббота - скучно
http://www.ostrie.ru/element/3477/
Надеюсь, в будущем, яндекс не даст нашим мозгам заржаветь -)
Базой, для расчета траст ранка должны являться сайты Яндекс каталога (неоткуда больше взять большую выборку довереных). Ну а среди них бааальшой процент сайтов с линкопомойками, рекламными блоками на морде и прочими прелестями. Не думаю, что это может серьезно улушить релевантность. А если и проводятся такие эксперименты, то локально и фильтры тут не причем.
Имхо, Яндексу не выгодно взять и поставить фильтры на все платные ссылки, с того же CLX например. А главная задача, сделать алгоритм фильтрации (склеивания) непрозрачным. Ну, не учитывать, например, все ссылки с clx, начинающиеся с гласной буквы, или из всех сомнительных - учитывать какой-то процент, зависящий от фазы луны -). А оптимизаторы будут репы чесать ... Все же должен быть какой-то элемент рандомизации, а то давно уже яндекс, в сравнении с гуглом, или там рамблером, слишком прозрачен...
Блин, ржунимагу, снипет в обратных ссылках из твоего дескрипшена берется :D