Slc

Slc
Рейтинг
150
Регистрация
27.06.2003

1) проверить проиндексированые страницы сайта донора

2) проверить через расширеный поиск или язык запросов ссылающиеся страницы, содержащие текст анкора

3) если сайт есть в ссылающихся это не значит что он не зафильтрован

4) если сайта нет в ссылающихся это не значит что ссылка с него не учитывается. Возможны разные варианты.

5) пункты 1-2 а также много других полезных параметров можно проверить с помощью сервиса be1.ru/stat

6) то что в ссылающихся сверху наиболее релевантные страницы - неправильно

Если накручивать, то нет так же в лоб. От рефа в ифрейме можно избавиться путем несложных манипуляций. А насчет азиатского трафа - я бы не стал рисковать.

Мне, по крайней мере, известны лучшие варианты

Смешно даже обсуждать тут рендом, вроде не глупые люди собрались. Если бы я все интересные сайты добавлял в закладки, то уже давно запутался бы в них. Я не помню урлов, я помню как нашел. Вчера я искал кроватку в детскую, а сегодня созрел купить и если бы не нашел этот сайт, и такое повторялось бы систематически, я бы ушел с этой ПС без оглядки. Активные серферы - костяк пользователей поисковых систем, сделают то же самое. Вот и весь Ваш рендом.

Начинайте оптимизацию с внутренних факторов. (Сессии убрать, модуль Ultimate SEO URL, тайтлы нормальные сделать, заголовки, итп.)

Потом уже будете думать о внешних

Dybra:
Думаю это тоже вопрос спорный. Логичнее было бы предплоложить что в этом случае выдаются самые релевантные беки, а которые не показываются скорее всего имеют вес близкий к нулевому. И в сумме дадут хорошо если 5% от общей релевантности.

Вы не могли бы более связно, желательно тезисно, изложить свои мысли? Лучше в личку, чтобы не засорять топик

L!mur:
Вот ответ на Ваш вопрос:

Уменьшение количества найденных документов при листании результатов поиска
связано с тем, что мы не показываем страницы, похожие на те, что пользователь
только что видел, то есть избавляем Вас от просмотра дубликатов.

В момент получения запроса анализируются контексты документов, соответствующие
запросу. Если у двух страниц они совпадают, менее релевантный документ
отбрасывается как дубликат.

Соответственно, попарно сравнить контексты у миллионов, даже тысяч документов
— очень тяжелая операция, поэтому динамическое удаление дубликатов делается по
мере листания результатов.

Ну что Вы, право, вопрос-то был про беки. Пользователю, когда он смотрит "кто ссылается", нужно знать все сайты ссылающиеся на его сайт. Чем больше таких сайтов выявит пользователь, тем точнее он будет анализировать текущую ситуацию. Поэтому релевантными результаты, когда в беках показываются не все сайты известные поисковой системе, назвать нельзя. Это ни что иное, как борьба с оптимизаторами, тем более на это тратятся столь драгоценные вычислительные мощности :) Может хоть ссылку сделаете в беках "искать то же самое в yahoo site explorer"? :)

А Вы очередной (в хорошем смысле) представитель яндекс тут, на форуме?

ну вот, апдейт, суббота - скучно

http://www.ostrie.ru/element/3477/

Надеюсь, в будущем, яндекс не даст нашим мозгам заржаветь -)

Spectre:
А может все несколько проще? И большинство "фильтров" - это просто TrustRank, который Яндекс еще в ноябре 2005 анонсировал?

Базой, для расчета траст ранка должны являться сайты Яндекс каталога (неоткуда больше взять большую выборку довереных). Ну а среди них бааальшой процент сайтов с линкопомойками, рекламными блоками на морде и прочими прелестями. Не думаю, что это может серьезно улушить релевантность. А если и проводятся такие эксперименты, то локально и фильтры тут не причем.

Имхо, Яндексу не выгодно взять и поставить фильтры на все платные ссылки, с того же CLX например. А главная задача, сделать алгоритм фильтрации (склеивания) непрозрачным. Ну, не учитывать, например, все ссылки с clx, начинающиеся с гласной буквы, или из всех сомнительных - учитывать какой-то процент, зависящий от фазы луны -). А оптимизаторы будут репы чесать ... Все же должен быть какой-то элемент рандомизации, а то давно уже яндекс, в сравнении с гуглом, или там рамблером, слишком прозрачен...

Блин, ржунимагу, снипет в обратных ссылках из твоего дескрипшена берется :D

Всего: 868