- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Последнее предложение как раз самое главное для PR :)
вот.. вот .. а принципы то лежащие в основе как-раз и неизвестны ( тем более что они так изменчивы ) .... ну если не брать в основу основополагающий принцип ( единственный который известен :) ) - выдача информации релевантной запросу.
И всякие попытки выдернуть часть ( предполагаемая) из общего алгоритма и пытаться что-то на основании его предполагать - пустая трата времени
Вашу "формулу" в студию, плиз
Если я правильно понимаю принципы рассчета PR, в свое время описанные Сергеем и Ларри, то итерация - это шаг алгоритма вычисления PR при пересчете PR. А при каждом пересчете PR вычисляется заново, вне зависимости от того, какой PR был до пересчета. Так что PR может уменьшиться после пересчета, а не после итерации, одного шага этого пересчета.
На мой взгляд, PR в своей сущности похож на энтропию (физики меня поймут :)). Т.е. в процессе непосредственно пересчета он не может снижаться.
Например, есть два сайта: А и В. Сайт А - "динамично развивающийся", постоянно пополняется, меняет "контент". И "В" - сайт, который некий Вася создал три года назад и не изменял с тех пор. Вопрос: будет ли гугль производить эти магические "итерации" над сайтом В? либо будет ли гугль столь же часто проводить "итерации" над сайтом В, как над сайтом А?
Согласно "формуле" после каждой "итерации" увеличивается PR
Про формулу ответа не услышал, но я так понимаю, что речь идет об итерациях из статьи Chris Ridings, перевод которой есть на http://digits.ru/articles/promotion/pagerank.html
Так вот, там, мягко говоря, не все верно. А именно, в формуле
PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn)),
своюодный член должен быть не (1-d), а (1-d)/N, где N - общее число рассматриваемых документов. Этим выполняется условие, что сумма PR всех документов равна 1. И вычисления будут совсем другими, PR с каждой итерацией не будет увеличиваться, а будет сходиться к некоему значению, которое будет являться решением системы уравнений, что следует из теории цепей Маркова. Мы тут где-то около года назад немало спорили по этому вопросу - поищите большой тред с названием, кажется "Про PageRank" или что-то в этом духе.
Будет. Количество ссылок даже на заброшенный сайт со временем может меняться. Как правиило в меньшую сторону, но если сайт дествительно хороший, то и в большую.
И даже если число ссылок на сайт остаётся неизменным, можно с хорошей долей уверенности утверждать, что будет меняться количество ссылок на тех, кто ссылается на заброшенный сайт.
Т.е. будет меняться качество уже имеющихся ссылок.
Вот тебе и итерации - сам сайт не изменился, но изменилось его окружение. Что разумеется необходимо отразить в PR.
я не физик, но .... энтропия вселенной не может быть отрицательной ... только - лишь :)