Сквозняк-то понятно...
Мне вообще кажется, что тексты ссылок при сквозняке создают картину искусственной накрутки - ведь получается куча одинаковых ссылок. Это влияет и на "тошноту" ссылающегося текста.
А как быть, если тексты разные и ссылки стоят не сквозняком, а просто на нескольких страницах?
Да вообще-то искал... Не нашел...
Может дадите ссылочку?
Вот все же решил разобраться с проблемой и провести эксперимент.
Цель эксперимента:
Установить, как учитываются несколько ссылок с одного сайта.
Возможные варианты:
1. Ссылки учитываются как будто они с разных сайтов, т.е. нет никаких штрафов
2. Ссылки учитываются как будто они с разных сайтов, но вводится некий штраф
3. Учитывается только самая весомая ссылка
4. Учитывается только самая первая ссылка
План эксперимента:
1. Сначала попробуем провести следующую проверку: берем сайт, который тырит статьи, пробуем искать акцептора по тексту ссылки донора. Если по тексту ссылки (ссылка должна быть уникальной) сайт-акцептор имеет позицию с пометкой «найден по ссылке», то это значит, что ссылка учитывается.
2. Ставим на группу сайтов-акцепторов (продвигаемых по одному запросу) по одной ссылке с домена, отслеживаем позицию группы сайтов по запросу. Добавляем ссылки с уже ссылающихся сайтов на часть сайтов-акцепторов – если это дало прирост позиций по сравнению с другими сайтами из группы– значит все «ок».
_____________
Вроде все правильно...
Ваше мнение?
Ну да, "похожие страницы"
ОписАлся...
Ну дык я и сравнивал между собой:
1. сайт с тремя входящими ссылками с 3-х разных сайтов
2. сайт с 2 входящими ссылками с 2-х разных сайтов
3. сайт с 6-ю входящими с одного сайта и т.д.
и т.д. много комбинаций.
Самым релевантным был сайт с 3-мя ссылками с трех разных сайтов. Он обогнал сайт с 10-ю ссылками с 2-х разных сайтов. Все страницы-доноры были примерно одинакового веса
то, что не только от вИЦ - это-то понятно, но условия эксперимента были такие, что релевантность как раз и зависела только от виЦ так как остальные факторы или были одинаковы у исследуемых сайтов, или просто их влияние исключалось (например, тексты ссылоксоставлялись одинакового типа)
Все ссылки (тексты) были разные и при этом еще и уникальные.
Тем более, цель эксперимента была изучить xap, а не проверять непот. Выводы про непот - просто умозрительное заключение...
Тем более, я же не говорил, что изучать нужно только свои сайты - изучайте конкурентов! Конечно тут уже надо постараться и написать какой-нть скриптик...
Соответственно, если позиция сайта выросла - донор не в непоте.
Проверял на xap - работает :-)
и алгоритм, и xap :))))))
Единственно верный способ проверить непот:
1. Мониторим площадки
2. Появилась ссылка на площадке
3. Фиксируем позицию сайта-акцептора по
запросу (запрос=анкор ссылки)
4. Если ссылка уникальна и сайт не входит
в топ по этому запросу, то
5. Следим за индексацией ссылки и
отслеживаем изменение позиции сайта. При
этом ссылка должна быть по-прежнему
уникальной.
О! искал информацию по этой теме, набрел на свежий топик...
У меня, правда, вопрос звучит несколько по-другому.
"Как учитывает Яндекс при расчете релевантности определенной страницы несколько ссылок с одного и того же сайта?"
Например, есть страница А. На нее ссылается сайт В со страницы В1 весом W(B1). Увеличится ли и на сколько релевантность страницы A, если добавить еще несколько ссылок с других страниц сайта В (В2, В3, В4...) весом примерно равным W(B1)? (п.с. тексты ссылок разные)
Проводил где-то год назад похожий эксперимент, выяснилось, что много ссылок с одного и того же сайта особо сильно не прибавляют релевантности странице-акцептору. Т.е. фактически как при расчете тИЦ - влияет только факт простановки ссылки. Если бы теперь уже вИц рассчитывался по аналогии с PageRank, то чем больше ссылок на страницу-акцептора, пусть даже и одного сайта, тем лучше. Получается, вИЦ не равно PageRank... или я где попутал?...