Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
realseo:
Ок, можно, но при прочих равных условиях конкурент с более расширенной информацией по теме будет выше.

Конкурент с большим количеством страниц (документов!) имеет шанс встать выше, за счет внутренней перелинковки, именно потому, что в ранжировании участвуют документы. Т.е. чем больше страниц - тем больше вес.

realseo:

Свежий пример, есть сайт, крупный прокаченный портал, по теме "Тема 1".
Решили увеличить ядро.
Все новые страницы, заточенные под запросы "Тема 1", еще без прокачки и внешней работы - встали в топ 20-50.
Все новые страницы, заточенные под запросы "Тема 2"(ключи не имеют вообще сходства), при таких же условиях размещения(т.е. уровень передачи веса на страницы одиноковый) - абсолютно все(хоть вч, хоть нч) вне топа.

Хотя в гугле может иначе, там не мониторил

Это не аргумент. Конкурентность Темы1 и Темы2 может различаться. Может играть возраст нахождения в индексе (т.е. Тема 2 еще толком не проиндексировалась). Ну и внутренний вес... одинаковый он только при схеме "все на всех". На крупных проектах я такого не встречал.

Рассмотрите свой сайт именно с позиции, что ранжируется не сайт целиком, а документ. Используйте для анализа те данные, которые доступны - а именно свой сайт как совокупность отдельных документов, ссылающихся друг на друга. Проанализируйте конкурентов по Теме2. Думаю найдете причину, почему документы по Теме2 далеки от Топа.

realseo:
Новостники и продвигаются по нч, где это не сильно актуально.
Спросили же вас про конкурентные запросы

Какая разница какой конкурентности запрос? Ранжируются документы.

Denisg:
Sterh, как правило на новостных проектах одна новость полностью релевантна другой - тем более, если они "прокачаны". Тематические подборки, к сожалению встретить удается редко..

Да? Каким местом новость про убийство Усамы бин Ладана релевантна новости про лесные пожары?

sanitarn:
Обещенного 3 года ждут, так?

Три года будет в сентябре )))

мдя... а я вот пытаюсь целину вспахать маленьким мотокультиватором... не берет сцуко... придется раз пять / шесть поле проходить...

к чему это я? ... наверное не проснулся еще.... :)

Spowen:

Вопрос в главном: пришел человек, ему только что создали сайт. И он говорит "Мне нужно в топ 3" по таким-то запросам (СЧ в основном). Вот здесь и думается "А как сказать чтобы и самому в грязь лицом не упасть и удовлетворить человека как можно быстрее?".

От трех месяцев и без гарантий :)

Spowen:

1. Минимум ВС на странице
2. Возраст сайта/домена 1.5 года и старше, чем старше тем лучше.
3. Контент в месте где куплена ссылка - полностью уник. Желательно и в большей части на сайте.
4. В индексе ПС все или почти все страницы сайта.
5. В идеале без сапы и иже с ним (или хотябы это не явно видно/ссылки продаются дорого и мало)
6. Поп-андеры и т.д. - тут и говорить неочем - нафиг.
7. Обновляемость контента - почаще. Сайт должен "шевелиться" периодически.
8. тИЦ|PR (20+|1)

4 - а в какой ПыСы ? :) Они частенько разные результаты показывают. Как правило "больше всех" надо Рамблеру. И как Вы определите истинное кол-во страниц сайта?

Сравнивайте тогда кол-во проиндексированных страниц в разных поисковиках. Хотя тоже не метод нифига.

7 - это каждого донора будите отслеживать? Сравнивать сохраненные копии и кол-во страниц? А не убьетесь?

Bebgur:
Sterh, т.е. вы имеете ввиду, лучше передавать вес не со всех внутренних по 1 ссылке на продвигаемую (все по кругу, в середине одна), а выстроить их в продольную цепь, в конце которой будет стоять та самая Продвигаемая?

Не совсем. Примером я хотел показать принцип обратной связи. Т.е. страницы сами себя "накручивают". В "кольце" мы взяли определенную страницу за точку отсчета и замкнув кольцо получили на неё наибольший вес. В реале может получится по другому, т.е. вес может разлиться поровну, или наибольший вес получит страница из середины кольца - все зависит от других страниц и ссыок. Как внутренних, так и внешних.

Bebgur:

Другой вопрос: что делать с анкорами в данном случае (че то я тут про них ничего не увидел)? они по вашему не имеют значения вообще?

ИМХО имеют. На данный момент наша прога веса по анкорам не считает, но во второй версии обязательно прикрутим.

Bebgur:

И еще, насчет "продвижения документа, а не сайта", ясно что в итоге, в выдаче выходит 1 страница. Но на это влияет общее содержимое сайта. Чем больше "релевантных страниц" - тем лучше. Сайт с 1 страницей не реально продвинуть по серьезному запросу.

... выделено мной...

А вот это не верно. Возьмите любой новостной проект. Одна новость совсем не релевантна другой (конечно, если это не тематическая подборка), однако новости прокаченных порталов будут выше.

(Я не обсуждаю принципы ранжирования новостных сайтов, это просто пример. Аналоги можно найти и в других тематиках).

Так, поехали дальше

Возьмем сайт из 4 страниц, залинкованных в кольцо. Т.е. А-> Б -> В -> Г -> А

Считаем (примитивно, без коэффициентов) - А передала по единственной ссылке вес, равный единице, странице Б.

Вес страницы Б теперь составляет 2 единицы.

Страница Б, опять же по единственной ссылке, передает уже 2 единицы веса странице В.

Вес страницы В стал равен 3.

Страница Г = 4

И возврат веса на страницу А со страницы Г дает вес страницы А равный 5.

Таким образом у нас изменился вес всех страниц и нужно его пересчитывать заново.

Вот этот цикл расчета называется итерацией. Циклов итераций может быть сколь угодно, и каждый раз мы будем получать новые значения. Но надо когда то остановиться :)

В реальности, если ввести коэффициенты, и взять чуть более сложный пример, то целых чисел не будет. Будет что-то вроде 1,127964664. После каждой новой итерации поисковики удаляют результат предыдущей и подставляют результат последней.

Если мы начнем делать итерации, то в определенный момент увидим, что значения перестали менять скачкообразно, и меняются уже только восьмые-десятые знаки после запятой.

Как правило этот замечательный миг наступает после шестой итерации :)

Т.е. поисковики обсчитывают все ссылки шесть раз по кругу, этого достаточно, что бы свести погрешность к минимуму.

В данном примере, в принципе, все, что говорил про итерации, можно пропустить мимо ушей. Главное понять про обратную связь. Т.е. если разорвать кольцо (убрать ссылку между Г и А), то максимальный вес получит страница Г, а страница А как была с единичкой, так с ней и останется.

Продолжение следует... :)

Следующий пример руками считать уже тяжело, на досуге слабаю тестовый сайтик и продолжим :)

Sterh добавил 27.04.2011 в 17:43

goodkoph:
Sterh, все очень красиво, но одну вещь мне кажется Вы упустили. При сравнении документов одного сайта со список одностраничных сайтов стоит принимать во внимание, что Яник учитывает со всего ресурса лишь 1 ссылку, а при обладаниями 100 сайтов рабочих ссылок будет 100. Т.е. какой смысл закрывать меню от индексации, если даже без него рабочая ссылка будет 1? Я сейчас не про вес а чисто гипотетически =)

Неа... поисковик учитывает одну ссылку с документа (читаем страницы), и то спорно. Даже в программе пришлось делать фичу - склеивать или нет одинаковые ссылки со страницы, для сторонников как одной, так и другой теории.

Однакож, признаться, я никогда не покупаю две ссылки с одного акцептора на одного донора... от греха 🤪

provocator:
Ничего, что ноиндекс только текст закрывает?

Ноиндекс закрывает контент, заключенный между данным тегом. Для гарантии можно дополнительно использовать rel="nofollow"

----------------------

Продолжение будет ближе к обеду... пока, кому интересно, домашнее задание :)

Порисовать на бумажке модели, скажем, из пяти страниц, залинковать в кольцо, по схеме "все на всех", придумать свою схему, и посмотреть, как меняются веса.

Попробую таки кратенько...

Есть статья Криса Райдингса в переводе Садовского, описывающая PageRank, т.е. сам принцип ссылочного ранжирования.

И не смотря на то, что самой статье уже 10 лет, а формуле в ней приведенной и того больше, это как Азбука Кирила и Мифодия - с незначительными изменениями живет, здравствует и служит основой языка.

Сама формула:

PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn)),

где PR(A) — это вес PageRank страницы A (тот вес, который мы хотим вычислить),

D — это коэффициент затухания, который обычно устанавливают равным 0,85,

PR(T1) — вес PageRank страницы, указывающей на страницу A,

C(T1) — число ссылок с этой страницы,

PR(Tn)/C(Tn) означает, что мы делаем это для каждой страницы, указывающей на страницу A

При расчетах начальный вес всех страниц принимается за единицу, а коэфф. затухания приравнивают к 0,85

Теперь возьмём страничку, которую нам нужно продвинуть. Обзовем её Морда, и поставим на неё ссылку со странички, которую обзовем Донор1

Т.е. Донор1->Морда

Считаем:

PR (М)= 1(вес самой страницы)+0.85(1/1)=1+0,85=1,85

Теперь немного усложним задачу. Введем еще одного донора (донор2), и поставим с него ссылку на морду. Имеем:

PR (М)= 1+0.85(1/1)+0.85(1/1)=2,7

Усложняем дальше. Теперь поставим на странице донор1 еще одну ссылку, ведущую на страницу донор2

Считаем:

PR (М)= 1+0.85(1/2)+0.85(1/1)=2,275

Т.е. вес, полученный мордой по ссылкам уменьшился

НО!!!! Донор 1 передал часть своего веса не только морде, но и донору2, который в свою очередь ссылается на морду. Т.е. нам сначала нужно вычислить вес донора2, и только потом вес морды.

PR (д2)= 1+0.85(1/2)= 1,425

Вносим коррективы в предыдущий расчет:

PR (М)= 1+0.85(1/2)+0,85(1,425/1)=1+0,425+1,21125=2,63625

Т.е. по сравнению с примером, где оба донора ссылались на морду, мы все равно получили уменьшение веса, благодаря коэфф. затухания.

Что нам это дает на практике? Это дает логичный вывод, что для того, что бы раскрутить одну единственную страницу сайта нужно сделать следующее:

1) Все меню, на всех страницах запихнуть в ноиндекс

2) Сделать карту сайта, и скормить её Яндексу (должен же он как увидеть наши странички)

3) На всех страницах сайта оставить только одну рабочую (передающую вес) ссылку на раскручиваемую страницу.

Это идеальный вариант, построенный на модели. В жизни, увы, все немного сложнее.

Продолжение следует... ))

И снова я :)

Shing:
Например статичный блок ссылок на страницы в сайдбаре может оказать положительное влияние?
Ссылок более 20, на каждой странице.

Положительное влияние на что?

Shing:

Или внутряк работает только из тела статьи?
Вообще какова схема, как переливается вес страниц, на сколько он реально передается?

У Вас бывали случаи, когда двигаешь пять/шесть страничек сайта целенаправленно, а вместе с ними, как бы сами по себе лезут в топ и остальные? Никогда не задумывались, почему так происходит?

Вот типичная ошибка (стереотип, шаблон) любого начинающего оптимизатора, это утверждение, что поисковик ранжирует сайт.

Нет, поисковик ранжирует документ, т.е. отдельно взятую страницу сайта.

Теперь представьте, что Вас сайт состоит всего из одной страницы. Плюс к этому у вас есть еще 100 одностраничных сайтов, с которыми можно делать что угодно - менять тексты, ставить и снимать ссылки и т.д. и т.п.

Теперь прикиньте, как бы вы их стали линковать, что бы поднять одну единственную страницу.

.....

тут было начал писать краткое объяснение, но кратко не получается 🤪 ... надо, наверное, нацарапать статеек по перелинковке :)

Всего: 2038