Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
Ladycharm:
А чего их искать-то, Яндекс не показывает сохранённые копии для https-документов.

Тогда какого ляда вот этот конртаргумент? )) Или слона то и не заметили? :)

1. У документа отсутствует сохранённая копия, поэтому судить по НПС о "рабочести" ссылки в Яндексе - некорректно.

Или Вы утверждаете, что все https документы дружно выпали из ссылочного графа?

Ladycharm:

Зачем приводить в качестве пруфа пример, если эта граната не той системы?

А пруф постом выше Вас устроил? :)

Ladycharm:

А как ПС учитывают дубли ссылок было известно ещё с 2009 года, смысл открывать Америку ещё раз?

А это для тех упертых, которые до сих пор утверждают, что это не так.

Ladycharm:

Возникло ощущение, что ноги у этого "продукта" растут из результатов работы программы PW, а не из реальной практики:

И у этого продукта, и у программы PW ноги растут из описанного алгоритма PR. Ощущения, это замечательно, но причину и следствия путать не следует.

Ladycharm:

A) Вы рекомендуете закрывать ссылки яваскриптами и приводите пример расчётов, как за счет закрытия технических страниц увеличивается вес титульной. Тогда как ПС уже давно учитывают ссылки на яваскриптах и переходы по ним. Google вообще передаёт по ним PR уже лет 5 точно.

А если нету переходов? :) А Вы уверены, что если нет ссылки в сохраненке, она учитывается при расчете веса? Пруф в студию плиз!

Ladycharm:

B) В статье про "Дубли ссылок. Вред или польза?" вы пишете: - Во-первых, известно, что Яндекс учитывает все ссылки с донора на акцептора.

Как именно он их учитывает? Считает ли каждую ссылку равнозначной, или каждой передается свой вес?

Ladycharm:

- Во-вторых, ссылки - это не только ценный мех статический вес, но и анкорное ранжирование.

Это и ежу понятно, зачем Америку открывать? :)

Ladycharm:

- В-третьих, если верить Matt Cutts, Google передаёт статвес по всем ссылкам (и не одинаковый!), и лишь анкорное - передаёт только по первой найденной ссылке.

Где это он такое утверждал?

Ladycharm:

- В четвёртых, у ссылок есть ещё один интересный аспект, из-за которого есть прямой смысл делать дубли ссылок.

Это какой же? :)

Kitaer:
Да. Но на подобных сайтах, посещаемость 40-50 чел (им по 2,5 - 3 месяца). До этого сайты делал, к 3-му месяцу хоть что-то с поисковиков идет. Тут вообще ни че...

Так тут от запросов зависит. От конкурентности. Что попроще, то само и вылезает. Что посложнее - тут подталкивать надо.

Обрастайте ссылками, и все норм будет.

Ladycharm:
Да, но только это не тот PR, который рассчитываете вы по "классической формуле".


Берём ваш же пример: "ну вот самый простой пример (правда тестовая ссылка для другого ставилась)" из этого поста.
1. У документа отсутствует сохранённая копия, поэтому судить по НПС о "рабочести" ссылки в Яндексе - некорректно. И когда Яндексу совершенно нечего показывать по уникальному запросу - работает другой алгоритм ранжирования/аннотирования НПС.

2. В Google акцептор(морда сайта) не ищется даже поиском по сайту, то есть ваше внутреннее ссылочное в Гугле не работает, как заявлено.

И какую реальность на самом деле подтверждает эта ваша практика?

Как все запущено то....

1.1 Поищите сохраненки у https документов

1.2 Людкевич, конечно, авторитетный дядька. Но и его идеи спорны...

1.3 Не нравится НПС, надите себе другой пример. Я Вам выше давал "На главную". Ваши контраргументы приняты. Я же предложил Вам подобным образом посмотреть какой либо другой сайт.

Вы этого не сделали, а жаль. Что ж, давайте попробую еще раз.

[ATTACH]146122[/ATTACH]

[ATTACH]146123[/ATTACH]

[ATTACH]146124[/ATTACH]

Ну и на всякий случай внешние ссылки на сайт, полученные с помощью Ahrefs. Там их обнаружилось всего три штуки.

[ATTACH]146125[/ATTACH]

2. В гугле она не ищется, потому что это дубль ссылки. Собственно для того, что бы проверить, как учитываются дубли, та ссылка и ставилась.

Ladycharm:

К расчёту количества передаваемого веса по каждой ссылке на странице. И если почитать внимательно патенты - некоторые факторы передачи веса могут иметь как положительное, так и отрицательное влияние на передаваемый вес.
То есть, ссылки с одной и той же страницы могут передавать не только: нулевой, отрицательный и положительный вес, но и совершенно разное его количество.

Ага, все верно. Передается больше или меньше веса. Больше или меньше. Но к чему это больше и меньше прикладывают? Основа то какая? :)

Ladycharm:

Для Page Wieght - "все йогурты одинаково полезны", поэтому она рассчитывает цифры, не имеющие отношения к реальности. И эксперименты, поставленные с её помощью, дают не ту картину распределения веса, которую используют поисковые системы.

PW как раз основу и считает. А уж какие йогурты считать полезными - это решает каждый пользователь самостоятельно. Для этого в программе и настроки имеются, и по мере возможности эти настройки мы расширяем.

Ну и если хотите обсудить программу, то велкам в соответствующую ветку. Тут несколько иной продукт продается :)

jpg razz.jpg
jpg dvazz.jpg
jpg trizz.jpg
jpg 4zz.jpg
Ladycharm:
Статья-рерайт с недостоверного источника webmasterpro.com.ua, даже время тратить не стоит на чтение.

А погуглить религия не позволяет? ))

Ladycharm:

С чего вы так решили? Судя по патентам Google, его PR стремится описывать реального сёрфера:

1. Патент 2004 .....

2. Патент 2004 ....

Стремиться, не значит сделать. Запатентовать, не значит внедрить.

Только в 2007 году Гугл, со всеми его патентами, научился как-то бороться с link bomb Хотя куда как проще, сравнить текст анкора с текстом акцептора.

Авторитетный источник на английском.

Ladycharm:

3. Дальше изучайте патенты самостоятельно.

Не, без Вас мне будет скучно :)

Ladycharm:

Тот PR, который использует Google в ранжировании с 2004 года - описывает вероятностную модель поведения реального сёрфера, с учётом десятков статических факторов ссылок и документов (получаемых на этапе индексации страниц), и главное - с поправкой на поведение реальных пользователей (клики по ссылками, полученные с тулбаров, браузера и Аналитики)

Ни кто не отрицает, что в ранжировании используются сотни факторов. И PR один из них.

Ladycharm:

Тот PR, который рассчитывает Page Weight - уже лет 15 как неактуален, цифирки, не имеющие отношения к реальности.

2015-15=2000 год. PR запатентован в 1998 (поправьте, если ошибаюсь). Т.е. по Вашему утверждению, Гугл отказался от своего алгоритма, фактически сразу после того, ка запатентовал?

Циферки, быть может, и не имеют оношения к реальности. Но вот реальность, как показывает практика, очень хорошо к ним относится :)

Ну а что бы начинающие (и не очень) оптимизаторы могли разобраться в сути процессов, и понимать, где реальные циферки, где не очень, я и написал курс.

Который и называется: Основы ссылочного ранжирования. Ибо даже в приведенных Вам патентах идет взвешивание ссылок, в зависимости от их различных характеристик. А к чему это взвешивание применяется? Вооот... :)

Ladycharm:
У этого сайта <title>На главную</title>, поэтому работа внутреннего анкорного ранжирования по этой фразе - под сомнением.

Ну вот лень сейчас ковыряться. Но при желании можно найти подобные примеры. У мня и по НПС за счет перелинковки в ТОП сайты вылезали

Ladycharm:

В интернете были созданы тонны сайтов-доноров с нулевой посещаемостью. Ссылки с них увеличивали PR так же как и с нормальных сайтов.
Поэтому PR стал описывает вероятность нахождения сферического коня в вакууме, а не реального пользователя - и дискредитировал себя как фактор. Имхо, PR давно перестал использоваться в чистом виде.

Большинство алгоритмов ранжирования интегральные. Т.е. тот или иной фактор является слагаемым score (итогового результата). И RP используется наравне с другими факторами.

Ну вот например HillTOP:

{(1-d)+a (RS)} * {(1-e)+b (PR * fb)} * {(1-f)+c (LS)}
Где:
PR = PageRank
LS = LocalScore: Местный счет (локальный показатель)(Показатель, вычисленный из экспертных документов. Вариабелен и имеет различные значения в отношении поискового термина, появляющегося в заголовке (16), подзаголовке (6), якорном тексте (1), частоте поискового термина и т.д. Цифры в скобках*— оригинальные величины, которые могут меняться Google).

Источник на русском

Если новый, веденный фактор LS будет равен нулю, то ранжирование будет с учетом только PR. Если нет - ну будет плюс в ранжировании документа. Но PR это не отменяет.

Ladycharm:

Пруфа, что PR работает, тоже нет. Все выводы делаются на основе опытных данных и наблюдений.

Возьмите пару десятков ТОПов по коммерческим и инфо запросам. Снимите ссылки доноров. Посмотрите, сколько там доноров хотя бы близких по тематике. Сколько доноров могут потенциально давать трафик и в каких количествах. Ну и так далее. И будет Вам пруф.

Поэтому PR стал описывает вероятность нахождения сферического коня в вакууме, а не реального пользователя - и дискредитировал себя как фактор.

А он никогда реального пользователя и не описывал ))

Ladycharm:
Поскольку других разделах Серча(кроме продажи вашей программы) вы не встречаетесь,

Еще я встречаюсь тут и тут. Ну а так, статистика профиля в помощь :) Без малого 1900 сообщений с 2006 года, это мало наверное, но все же говорить о моей невстречаемости как-то не корректно :)

Ladycharm:

есть вопросы:

- вы чисто теоретик по результатам работы вашей программы, или умеете продвигать сайты сами?

Умею. И мои ученики тоже умеют :)

Ladycharm:

- сможете обрисовать как ПС на самом деле относятся к сквозным меню на сайте/его разделе (передают ли статвес/анкорное)

Вот такая обрисовка сойдет? :)

[ATTACH]146098[/ATTACH]

и смотрим сайт

[ATTACH]146099[/ATTACH]

Ladycharm:

? И что изменится, если сделать это меню динамическим (сделать динамические анкоры или добавить якоря к ссылкам)?

Будет пересчитываться вес каждый раз после того, как сайт отдаст поисковику новый динамический анкор или URL. Говоря по русски - хрень получится.

(для меня то это очевидно, но в курс надо добавить. Спасибо за идею :) )

Ladycharm:

- что передают внутренние ссылка-картинка и сквозная ссылка?

Вес они передают, вес :)

Ladycharm:

PS: Естественно, интересуют ответы с точки зрения поисковиков, а не алгоритма работы программы Page Weight.

Алгоритм работы PW работает на классической формуле PR и мы этого никогда не скрывали. Конечно, формула поисковиков отличается какими то своими нюансами. Но принцип везде один и тот же. Что Вы, без сомнения, знаете, т.к. хорошо изучили материал Садовского и понимаете, что алгоритм PR основан на вероятностной модели поведения пользователя. Теорию вероятностей, полагаю, оспаривать не будем? :)

Ladycharm:

А, что, других алгоритмов учёта ссылок вы не знаете, например, HITS?

Я не ставил целью рассмотреть в курсе все возможные алгоритмы и теоретические выкладки исследователей.

Ladycharm:

Не думаю, что кто-то может растолковать Page Rank лучше Садовского, или сможет что-то добавить к сказанному им.

Ну если лично Вы все поняли из материала Садовского, то возьмите с полки пирожок :)

Однако люди разные, и за четыре года живого общения с людьми, которые сами пытались разобраться как в SEO в целом, так и с указанной статьей в частности, выработался несколько иной способ подачи этого материала. Кому то он будет более доступен и понятен.

Ladycharm:

Разве, что отметить, что тот PR, который рассчитывает программа Page Weight уже давно не используется поисковиками...

Вот сколько раз слышал это утверждение, но ни разу не встречал доказательств. Может Вы пруф дадите? :)

В то время, подтверждение тому, что PR прекрасно работает до сих пор, находит любой сеошник, работающий со ссылками (конечно, если он не из секты Нижегородцева)

jpg raz.jpg
jpg dvazz.jpg

А где заветная ссылка "Восстановить пароль"? :)

По каким ключам в топе то? :)

В nofollow вообще ссылки не закрывают. Особенно внешние, т.к. на передаче веса это не отразится. Если хотите закрыть ссылки, то закрывайте в скрипты. Если очень погуглить, то найдете шаблоны кнопок социалок уже в скриптах.

Всего: 2038