- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Cossack,
На Web Site Templates ведет только одна ссылка с Web Design, значит берем и расчитываем по ней [на основе The Anatomy of a Large-Scale...]:
.54 = 1 - d + d*(.64/28)
.54 = 1 - d + d*(.55/28)
.45 = 1 - d + d*(.64/28)
.45 = 1 - d + d*(.55/28)
Так верно? d подсчитать можешь? Оно в заданных пределах? Попробуем более сложный пример?
-О нет! о нет. о нет.....
:)
Вот пределы d:
И даже .45 = 1 - d + d*(.64/28) увы, не выполняется...
0.45>>0.1+0.9*0.64/28 = 0.12
Или ты хочешь сказать, что d здесь близок к 0.5? :) Это что, по-твоему, d для хабов (или кем ты себя считаешь) установлен таким? :)
Увы тебе, Казак - d - это не параметр для подгонки :)
Mauser,
-если бы это мнение не лезло как к каждой бочке затычка...
Вообще спасибо. И я надеюсь после расчетов закончить это обсуждение.
Собственно, речь идет о фактически бесконечном вероятностном пространстве, которое каждый раз приводят к конечному, ограничивая число страниц для которых определяется PR. Делается это скорее всего определением/пересчетом d на основании факторов, полученных при анализе страниц, который и производится на распределенных компьютерных подсетках и потом сливается в единое целое на одном из серверов.
Более того, поскольку наши события [ страницы ] - несовместны, но зависимы, они фактически являются "вложенными" друг в друга и естественно сумма абсолютных значений их PR может быть любой, но сумма их вероятностей будет равна 1.
"Плотность" результатов вызвана ленью менеджеров больших проектов, которые сильно недорабатывают и тем самым дают шанс... Рамблер, вон только слегка напрягся и сделал себе 8/10... Не секрет, что уровень Яндекса - достаточно легко достижим, даже за счет простого подбора ссылок... Фактически, из-за пренебрежительного отношения к отдельным факторам - большие проекты часто могут выглядеть смешно на фоне "шедевров", а Google так и будет вынужден "комкать" 30% своей шкалы.
euhenio, меня не интересуют пределы d, притянутые за уши или высосанные из пальца - если те 4 примера не содержат ошибок, значит по ним можно определить возможные пределы d, которое как фактор страницы может быть любым до 1 и которое фактически показывает каким будет влияние входящих ссылок при определении PR конкретной страницы.
Без которой бочка так и будет оставаться пустой... Хотя мне больше нравится сравнение с eжедневным восходом солнца [ и sol omnibus lucet ] ;).
2 Cossack
А почему он должен быть одинаковым для разных страниц? Неужели посетители ведут себя одинаково на всех страницах?
По логике он конечно должен быть разным, но ты сам подумай, насколько труднее проводить расчеты с разными d ;)
Тут кто-то уже говорил (по-моему wolf), что не плохо было бы тогда учитывать цвет ссылок, их размер и т.п.
Но разве все учтешь ;)
Числитель вообще-то ни к чему не стремится, и он может как увеличиваться, так и уменьшаться ;)
Я бы очень хотел тебя понять, Казак, но что-то пока не очень получается ;)
Означает ли то, что ты сказал, что достаточно что-то "только понять" и PR станет большим? :)
Ты не думал как-нибудь написать статью про PR?
2 Ergo
Вообще-то у Яндекса PR=7 ;)
А про "пример нелинейности 10-ти бальной шкалы PR" согласен.
2 antimanyak
Точно ;)
Например оттуда же, откуда он узнает PR ссылающихся страниц, на который влияет страница, для которой мы рассчитываем PR ;)
За несколько итераций d (как и PR) может уточняться и сходиться к определенному значению.
А почему собственно? Была страница с PR0, d=0.8 - поставили на нее линк с PR6, получили что страница с PR5, и что теперь у нее и d изменится? с какой стати? (content=const конечно) - то есть d не зависит от PR страницы.
Контент может быть и не меняется, но откуда Гуглу узнать о качестве контента?
Не стоит забывать, что PR был придуман как раз для того, чтобы определить, какие страницы объективно лучше ;)
Раз "поставили на нее линк с PR6", значит ее оценили и значит для этой страницы можно изменить d.
2 euhenio
Я тоже об этом думал, но (ИМХО) принимая условие, что d разный, можно запросто пересмотреть и его смысл ;)
:)
ИМХО, в условиях, когда никто до конца не понимает, как Казак рассчитывает PR, и когда никто из нас точно не знает, как "оно" на самом деле, это замечание не уместно.
Теперь у меня вопрос ко всем ;)
Есть тема
Пользуясь классическим способом расчета PR можно подсчитать, что большим количеством ссылок со страниц с PR=5 можно "нагнать" себе на страницу сколь угодно большой PR.
Почему же это не удается сделать автору той темы?
Кстати, пользуясь "теорией разных d" Казака, этому можно найти хоть какое-то внятное объяснение ;)
А теперь вопрос Казаку.
Считаешь ли ты, что d - это функция от входящего PR или от кол-ва входящих ссылок?
Ты считаешь, что d устанавливается вручную для разных типов сайтов или рассчитывается для каждой страницы?
Считаешь ли ты, что алгоритм расчета вИЦ принципиально отличается от алгоритма расчета PR (о чем работники Яндекса, наверное, даже не догадываются :))?
а там всего "30-40" доменов... может и маловато (если по нелинейной шкале шаг 100), а потом по ходу треда не понятно был ли реальный эксперимент, была ли концентарция всех линков на 1 страницу? там что то про сложную систему пeрелинковки всех старниц на все и тд непонятно, может хотелось у всех 40 доменов PR6? :-0
а там всего "30-40" доменов... может и маловато
А ты до конца прочитай первый пост ;)
30-40 доменов с PR5
в разных директориях этих доменов по 1-3 тысячи дорвеев с PR4-5
300 сабдоменов c PR4-5
По-моему более чем достаточно, чтобы получить PR=6
Это действительно не понятно ...
А хранить копию каждой страницы легче?
Хмм... У многих все-таки стремится. Но не может быть больше единицы. А значит, чем больше d - тем больше влияние ссылок.
Означает то, что при правильном построении сайта - ему достаточно совсем немного для старта, и очень много для защиты позиций.
Логичнее всего - результат анализа и классификации страницы, а поскольку страницы более-менее одинаковые - можно определить его среднее значение, например 0.85, которое будет показывать чрезвычайно большую зависимость от качества [ и количества ] ссылок на страницу.
А хранить копию каждой страницы легче?
OK, допустим Гугл справится с расчетами при разных d ;)
Хорошо ;). Но тогда не очень понятно, какое d выгоднее для увеличения PR. Большое d увеличивает влияние ссылок. Маленькое d увеличивает влияние единицы. Если все так и есть, то мог бы получиться интересный эффект. Если при увеличении PR для страницы уменьшается d, тогда:
Во-первых, это объяснило бы то, что для страниц с большим PR ссылки оказывают заметно меньшее влияние, а значит создается эффект "нелиненой шкалы", когда гораздо труднее получить следующий уровень PR из-за слабеющего влияния ссылок.
И во-вторых, увеличился бы параметр (1-d), показывающий вероятность того, что пользователь перейдет на эту страницу не по ссылкам, а набрав адрес в браузере. Для страницы с высоким PR он естественно должен быть больше.
Ну как, все здесь верно, Cossack ;)?
Я тебя не понимаю :). Что значит "для старта"? "Для защиты позиций" где?
P.S.
Интересную тему я тут нашел :D
Всем советую прочитать, особенно euhenio ;)
>>для страниц с большим PR ссылки оказывают заметно меньшее влияние,
х-м-м-м, вроде бы это не так. Сссылки с малым PR малое влияние, а ссылки со страниц с PR9?
Из выше приведенной ссылки так и не понятно проводить нормировку к sum=1 после каждой итерации или после схождения процесса или решили что оба эти метода дадут один и тот же результат? Что-то вероятностный подход совсем затуманил дело... А почему он вообще появился - почему нельзя только по топологии вычислять PR вообще не подмешивая вероятности?!