Садовский,
-оххохонюшки.. Яндекс зря считает, что поставщики так уж бесплатны. Нет, они тратят деньги-время. Я заодно твои слова объединю со словами Колмановской на круглом столе на конференции:
-если и по тексту неточно, по смыслу правильно процитировал, стенограмма рассудит в крайнем случае.
Вот я считаю, что это подход, так сказать, узколобый. Все это излияние Колмановской было в ответ на доклад Андрея Иванова про экологию. Так вот мне из его доклада было очевидно (а может, это просто и так известно?), что участники "экосистемы" дальше своего носа не видят принципиально. И Колмановская это проиллюстрировала своим примером.
Попытаюсь объяснить. Есть в биологии отношения симбиоза, когда участники нужны друг другу. И есть паразитизм, когда один нужен другому, но не наоборот.
Таки если бы поисковых систем не было, то интернет бы жил себе, - по ссылкам бы ходил, каталогами бы пользовался, рассылками. А вот если бы не было сайтов (=вебмастеров), поисковики бы сдохли.
Поэтому в системе отношений позиция поисковиков ближе к "паразиту", а позиция вебмастеров - к "хозяину". А вебмастер - он и есть оптимизатор, путь непрофессиональный - ведь каждому хочется, чтобы его сайт хотя бы по соответствующим запросам находился и посещался. Поэтому он пытается и будет пытаться выпихнуть свой сайт повыше.
И то, что нет четких правил, вредит всем - и вебмастерам, т.к. их сайты банят, и поисковикам, т.к. они тратят ресурсы на чистку и получают спам в выдаче. Четкие правила позволят начинающим узнать, как вести себя хорошо. Думаю, выигрыш от снижения количества спама превысит проигрыш от четких правил :)
Теперь тоже ответ одному мужику из Рамблера (к сожалению, не
запомнил, как Кева его представил, бородатый такой :), в круглом столе участвовал)
-мне уходить в первый день надо было, так что лично сказать не склалось. Так вот используя эту аналогию, нужно сынку было сказать что-то типа "дебил, ломать ветки нельзя, и сидеть втроем на одной ветке-тоже нельзя. А как увижу, выпорю и больше тот чувак в сад не зайдет."
Т.е., правила надо написать!
А используя Вашу же аналогию, папа берет ружьишко и отстреливает сынишку вместе с его друзьями. Ибо неповадно...
Это как, правильно? :)
andre, может, я невнимательно читал...
Но зачем это все? Ну взяли запрос, нашли 6 смыслов. Дальше-то что? Помечтали о том, что будет, если скрестить каталог с поиском?
-это, наверное, круто. То есть, клево. :) Но - предполагаешь сделать свою ПС (еще одну:))? Или организованные советы подавать Яндексу?
Зачем вообще знать, какова оптимальная выдача? Как использовать-то собираешься?
Polite Moose,
-потому, что закрытые страницы его по факту получают - они находятся в Гугле по ссылкам - именно за счет ПР + ссылочного ранжирования.
-ты имеешь в виду разделение ПР и Сс.Ранжирования? Так это в любом случае механизм для накрутки. А если это "резервирование" не влияет на выдачу, то на кой его вообще рассматривать? Я, честно говоря, вообще не понял, что это за резервирование такое.
Тут есть 2 недырявых варианта - либо ПР на закрытые страницы передается на общих основаниях, либо не передается вообще. Но закрытые страницы вылазят в поике - в пользу первого варианта.
-это я и имел в виду. И утекание PR НА них есть. Поэтому все методы "экономии"путем закрывания в роботс не имеют смысла.
Gray,
-во-во. Самый правильный ответ :)
Interitus,
-мы такого не писали! Что значит "не учитывают"? Я лично имел в виду, что это аналог "висящей страницы", а ее надо учитывать. И PR они имеют, факт.
-второй мне не нравится, т.к., как народ и пишет дальше, можно использовать это для нагоняния PR.
Есть еще третий вариант: "ВИСЯЩИЕ СТРАНИЦЫ СЧИТАЮТСЯ НАРАВНЕ СО ВСЕМИ ОСТАЛЬНЫМИ, БЕЗ ПРЕДПОЛОЖЕНИЙ О ССЫЛКАХ С НИХ". Просто берется система и считается.
-в общем интересный вариант, но его надо в формулу забить с самого начала... Если даже и ссылки нет, но кнопак "бэк" - всегда есть.
-ну, что я имею в виду под нагоном: пусть у тебя есть страница с высоким ПР. И с нее есть 100 ссылок (ну, на дорвеи, положим), из которых 99 закрыты в роботс.
Тогда: если ПР-ы всех страниц рассчитывать, учтя лишь ОТКРЫТЫЕ К ИНДЕКСАЦИИ ссылки (а их ровно одна), то все 100 страниц получат в 100 раз бОльший ПР, чем заслуживают. Хрен с ними, что они его дальше не передадут. И этого достаточно-они-то сами вылезут. Будь их хоть тыща.
Как бы мораль: так разбивать алгоритм на части нет смысла (т.е., считать прибавку ПР отделлно от уменьшения ПР). Т.е., это потенциальная дырка в алгоритме. Вероятно, Lim что-то вроде этого имел в виду.
-тогда и ПР не передастся на закрытые страницы, а он передается.
Немного о расчете висящих страниц. Вот где-то год назад (Professor свидетель :)) я делал такой эксперимент - 7 новых субдоменов, ссылающихся по цепочке на последний, висящий. Если выкидывать из расчета висящие страницы (собственно, что-то вроде этого я и хотел проверить), то после выкидывания седьмого становился висящим шестой, если его выкинуть, висящим был пятый и т.д. Вопрос был в том, "на сколько шагов назад" Гуль выкидывает. Или, на сколько шаков вперед просчитывает после выкидывания. (была такая маза, что после расчета без висящих страниц делается еще несколько итераций, с включением висящих страниц)
Так вот, все семь имели 4/10, включая висящий (ссылался на первый из них домен с пятеркой).
Кроме того, мне показалось, что я понял идеологию выкидывания висящих страниц (предположим, что это выкидывание существовало)
Идея проста: есть система N уравнений типа
Pi=(1-d)+d*sum(Pj/Cj)
где слева стоят страницы, НА которые есть ссылки, а справа - С КОТОРЫХ есть ссылки. Если эти множества совпадают, то если просуммировать все левые и все правые части, получается:
P=P1+..+Pn=N*(1-d)+d*(C1*P1/C1+...+Cn*Pn/Cn)
т.к. каждая Pj/Cj существует в правой части Cj раз
sum(P)=N(1-d)+d*sum(P)
=> sum(P)*(1-d)=N(1-d)
=>sum(P)=N
-это есть автоматическое выполнение условия нормировки. Автоматическое!!
Т.е. к-во расчетов существенно снижается. Это хорошо, и Гугль эим, вероятно, пользовался.
Но вероятно, дыры в алгоритме возникали при этом "выкидывании висящих". И Гугль отказался от этого выкидывания.
-в таком случае предлагаю не вводить правило, а завести раздел форума "Жалобы" или типа того. А кому неинтересно, тот сможет не читать.
Мне лично всегда интересно посмотреть на "частные случаи". Несмотря на то, что истина общеизвестна. :) (что Яндекс - плохой и все остальные тоже)
Тебе бы рОманы писать :)
-хорошо сказано!
-их не надо создавать, они уже есть :(
wolf, ты уж совсем пессимист :)
Стратегия лисы состоит в том, чтобы прятаться.
Сратегия охотника - найти лису и замочить из ружьишка.
Где это видано, чтобы они договорились? Например, пусть лисы и охотники договорятся, что стрелять по лисе можно только когда она крадет курей, а красть курей ей разрешается только ночью.
Никакого договора не выйдет.
А вот развивать свои способы прятаться - можно. И не так сложно. Больше делиться информацией друг с другом, встречаться, обсуждать.
Interitus, если ты про АдЛабз, то у меня на виду их клиент, который был на верхушке по климатической теме (3-6, сейчас - 11) и никто не давит.
-не слежу за запросами их клиентов, но если выдача по ним и менялась, так ведь не банили! А за манипулирование полагается известно что - бан. :) А если бана не было и не будет, то и другим не грех попробовать.
А вообще, интересно, конечно, самого Сашу услышать по этому вопросу. Таки можно или нет? :) Или есть те, которые равнее?
PS
Насчет аргументированного диалога. Вот Саша в одной из "злободневных" тем про изменение выдачи говорил, что, мол, вступим. Я привел пример ухудшения выдачи (про субдомены фирм), потом напомнил. Однако диалога не дождался.
Туфта-с... Болтовня-с... :)