Конкурент с большим количеством страниц (документов!) имеет шанс встать выше, за счет внутренней перелинковки, именно потому, что в ранжировании участвуют документы. Т.е. чем больше страниц - тем больше вес.
Это не аргумент. Конкурентность Темы1 и Темы2 может различаться. Может играть возраст нахождения в индексе (т.е. Тема 2 еще толком не проиндексировалась). Ну и внутренний вес... одинаковый он только при схеме "все на всех". На крупных проектах я такого не встречал.
Рассмотрите свой сайт именно с позиции, что ранжируется не сайт целиком, а документ. Используйте для анализа те данные, которые доступны - а именно свой сайт как совокупность отдельных документов, ссылающихся друг на друга. Проанализируйте конкурентов по Теме2. Думаю найдете причину, почему документы по Теме2 далеки от Топа.
Какая разница какой конкурентности запрос? Ранжируются документы.
Да? Каким местом новость про убийство Усамы бин Ладана релевантна новости про лесные пожары?
Три года будет в сентябре )))
мдя... а я вот пытаюсь целину вспахать маленьким мотокультиватором... не берет сцуко... придется раз пять / шесть поле проходить...
к чему это я? ... наверное не проснулся еще.... :)
От трех месяцев и без гарантий :)
4 - а в какой ПыСы ? :) Они частенько разные результаты показывают. Как правило "больше всех" надо Рамблеру. И как Вы определите истинное кол-во страниц сайта?
Сравнивайте тогда кол-во проиндексированных страниц в разных поисковиках. Хотя тоже не метод нифига.
7 - это каждого донора будите отслеживать? Сравнивать сохраненные копии и кол-во страниц? А не убьетесь?
Не совсем. Примером я хотел показать принцип обратной связи. Т.е. страницы сами себя "накручивают". В "кольце" мы взяли определенную страницу за точку отсчета и замкнув кольцо получили на неё наибольший вес. В реале может получится по другому, т.е. вес может разлиться поровну, или наибольший вес получит страница из середины кольца - все зависит от других страниц и ссыок. Как внутренних, так и внешних.
ИМХО имеют. На данный момент наша прога веса по анкорам не считает, но во второй версии обязательно прикрутим.
... выделено мной...
А вот это не верно. Возьмите любой новостной проект. Одна новость совсем не релевантна другой (конечно, если это не тематическая подборка), однако новости прокаченных порталов будут выше.
(Я не обсуждаю принципы ранжирования новостных сайтов, это просто пример. Аналоги можно найти и в других тематиках).
Так, поехали дальше
Возьмем сайт из 4 страниц, залинкованных в кольцо. Т.е. А-> Б -> В -> Г -> А
Считаем (примитивно, без коэффициентов) - А передала по единственной ссылке вес, равный единице, странице Б.
Вес страницы Б теперь составляет 2 единицы.
Страница Б, опять же по единственной ссылке, передает уже 2 единицы веса странице В.
Вес страницы В стал равен 3.
Страница Г = 4
И возврат веса на страницу А со страницы Г дает вес страницы А равный 5.
Таким образом у нас изменился вес всех страниц и нужно его пересчитывать заново.
Вот этот цикл расчета называется итерацией. Циклов итераций может быть сколь угодно, и каждый раз мы будем получать новые значения. Но надо когда то остановиться :)
В реальности, если ввести коэффициенты, и взять чуть более сложный пример, то целых чисел не будет. Будет что-то вроде 1,127964664. После каждой новой итерации поисковики удаляют результат предыдущей и подставляют результат последней.
Если мы начнем делать итерации, то в определенный момент увидим, что значения перестали менять скачкообразно, и меняются уже только восьмые-десятые знаки после запятой.
Как правило этот замечательный миг наступает после шестой итерации :)
Т.е. поисковики обсчитывают все ссылки шесть раз по кругу, этого достаточно, что бы свести погрешность к минимуму.
В данном примере, в принципе, все, что говорил про итерации, можно пропустить мимо ушей. Главное понять про обратную связь. Т.е. если разорвать кольцо (убрать ссылку между Г и А), то максимальный вес получит страница Г, а страница А как была с единичкой, так с ней и останется.
Продолжение следует... :)
Следующий пример руками считать уже тяжело, на досуге слабаю тестовый сайтик и продолжим :)
Sterh добавил 27.04.2011 в 17:43
Неа... поисковик учитывает одну ссылку с документа (читаем страницы), и то спорно. Даже в программе пришлось делать фичу - склеивать или нет одинаковые ссылки со страницы, для сторонников как одной, так и другой теории.
Однакож, признаться, я никогда не покупаю две ссылки с одного акцептора на одного донора... от греха 🤪
Ноиндекс закрывает контент, заключенный между данным тегом. Для гарантии можно дополнительно использовать rel="nofollow"
----------------------
Продолжение будет ближе к обеду... пока, кому интересно, домашнее задание :)
Порисовать на бумажке модели, скажем, из пяти страниц, залинковать в кольцо, по схеме "все на всех", придумать свою схему, и посмотреть, как меняются веса.
Попробую таки кратенько...
Есть статья Криса Райдингса в переводе Садовского, описывающая PageRank, т.е. сам принцип ссылочного ранжирования.
И не смотря на то, что самой статье уже 10 лет, а формуле в ней приведенной и того больше, это как Азбука Кирила и Мифодия - с незначительными изменениями живет, здравствует и служит основой языка.
Сама формула:
При расчетах начальный вес всех страниц принимается за единицу, а коэфф. затухания приравнивают к 0,85
Теперь возьмём страничку, которую нам нужно продвинуть. Обзовем её Морда, и поставим на неё ссылку со странички, которую обзовем Донор1
Т.е. Донор1->Морда
Считаем:
PR (М)= 1(вес самой страницы)+0.85(1/1)=1+0,85=1,85
Теперь немного усложним задачу. Введем еще одного донора (донор2), и поставим с него ссылку на морду. Имеем:
PR (М)= 1+0.85(1/1)+0.85(1/1)=2,7
Усложняем дальше. Теперь поставим на странице донор1 еще одну ссылку, ведущую на страницу донор2
PR (М)= 1+0.85(1/2)+0.85(1/1)=2,275
Т.е. вес, полученный мордой по ссылкам уменьшился
НО!!!! Донор 1 передал часть своего веса не только морде, но и донору2, который в свою очередь ссылается на морду. Т.е. нам сначала нужно вычислить вес донора2, и только потом вес морды.
PR (д2)= 1+0.85(1/2)= 1,425
Вносим коррективы в предыдущий расчет:
PR (М)= 1+0.85(1/2)+0,85(1,425/1)=1+0,425+1,21125=2,63625
Т.е. по сравнению с примером, где оба донора ссылались на морду, мы все равно получили уменьшение веса, благодаря коэфф. затухания.
Что нам это дает на практике? Это дает логичный вывод, что для того, что бы раскрутить одну единственную страницу сайта нужно сделать следующее:
1) Все меню, на всех страницах запихнуть в ноиндекс
2) Сделать карту сайта, и скормить её Яндексу (должен же он как увидеть наши странички)
3) На всех страницах сайта оставить только одну рабочую (передающую вес) ссылку на раскручиваемую страницу.
Это идеальный вариант, построенный на модели. В жизни, увы, все немного сложнее.
Продолжение следует... ))
И снова я :)
Положительное влияние на что?
У Вас бывали случаи, когда двигаешь пять/шесть страничек сайта целенаправленно, а вместе с ними, как бы сами по себе лезут в топ и остальные? Никогда не задумывались, почему так происходит?
Вот типичная ошибка (стереотип, шаблон) любого начинающего оптимизатора, это утверждение, что поисковик ранжирует сайт.
Нет, поисковик ранжирует документ, т.е. отдельно взятую страницу сайта.
Теперь представьте, что Вас сайт состоит всего из одной страницы. Плюс к этому у вас есть еще 100 одностраничных сайтов, с которыми можно делать что угодно - менять тексты, ставить и снимать ссылки и т.д. и т.п.
Теперь прикиньте, как бы вы их стали линковать, что бы поднять одну единственную страницу.
.....
тут было начал писать краткое объяснение, но кратко не получается 🤪 ... надо, наверное, нацарапать статеек по перелинковке :)