euhenio

euhenio
Рейтинг
357
Регистрация
21.09.2001
Должность
ИП: продвижение и создание сайтов, увеличение конверсии

Садовский,

А где вы видели ресторан, у которого миллион поставщиков, которые рады бесплатно предложить продукты, потому что для них прибылен факт поедания их продуктов посетителями? С поставщиками продуктов ресторан имеет юридические и финансовые отношения, а с владельцами сайтов поисковики не заключали договор. Так что аналогия некорректная.

-оххохонюшки.. Яндекс зря считает, что поставщики так уж бесплатны. Нет, они тратят деньги-время. Я заодно твои слова объединю со словами Колмановской на круглом столе на конференции:


... типа производство рекламного ролика на ТВ стоит в десятки-сотни раз меньше, чем стоит время рекламы, покупаемое у телевидения. И типа владельцы сайтов в таких же отношениях находятся с Яндексом - они производят информацию, которую выдает Яндекс, но распространение-то стоит оххенно больше!!! Так что владельцы сайтов просто должны быть благодарны, что им бесплатно дают трафик...

-если и по тексту неточно, по смыслу правильно процитировал, стенограмма рассудит в крайнем случае.

Вот я считаю, что это подход, так сказать, узколобый. Все это излияние Колмановской было в ответ на доклад Андрея Иванова про экологию. Так вот мне из его доклада было очевидно (а может, это просто и так известно?), что участники "экосистемы" дальше своего носа не видят принципиально. И Колмановская это проиллюстрировала своим примером.

Попытаюсь объяснить. Есть в биологии отношения симбиоза, когда участники нужны друг другу. И есть паразитизм, когда один нужен другому, но не наоборот.

Таки если бы поисковых систем не было, то интернет бы жил себе, - по ссылкам бы ходил, каталогами бы пользовался, рассылками. А вот если бы не было сайтов (=вебмастеров), поисковики бы сдохли.

Поэтому в системе отношений позиция поисковиков ближе к "паразиту", а позиция вебмастеров - к "хозяину". А вебмастер - он и есть оптимизатор, путь непрофессиональный - ведь каждому хочется, чтобы его сайт хотя бы по соответствующим запросам находился и посещался. Поэтому он пытается и будет пытаться выпихнуть свой сайт повыше.

И то, что нет четких правил, вредит всем - и вебмастерам, т.к. их сайты банят, и поисковикам, т.к. они тратят ресурсы на чистку и получают спам в выдаче. Четкие правила позволят начинающим узнать, как вести себя хорошо. Думаю, выигрыш от снижения количества спама превысит проигрыш от четких правил :)

Теперь тоже ответ одному мужику из Рамблера (к сожалению, не

запомнил, как Кева его представил, бородатый такой :), в круглом столе участвовал)


..Типа имею я яблоневый сад ... типа разрешил я сынку порвать яблочки и покачаться на ветках... и прихожу я и вижу, как 100 его друзей все пообломали и пооборвали, и что я должен делать...

-мне уходить в первый день надо было, так что лично сказать не склалось. Так вот используя эту аналогию, нужно сынку было сказать что-то типа "дебил, ломать ветки нельзя, и сидеть втроем на одной ветке-тоже нельзя. А как увижу, выпорю и больше тот чувак в сад не зайдет."

Т.е., правила надо написать!

А используя Вашу же аналогию, папа берет ружьишко и отстреливает сынишку вместе с его друзьями. Ибо неповадно...

Это как, правильно? :)

andre, может, я невнимательно читал...

Но зачем это все? Ну взяли запрос, нашли 6 смыслов. Дальше-то что? Помечтали о том, что будет, если скрестить каталог с поиском?

Задача семантического каталога (о чем я тут речь веду) - смысловое деление нечетких запросов и механизм уточнения поисковых запросов.

-это, наверное, круто. То есть, клево. :) Но - предполагаешь сделать свою ПС (еще одну:))? Или организованные советы подавать Яндексу?

Зачем вообще знать, какова оптимальная выдача? Как использовать-то собираешься?

Polite Moose,

Почему это закрытые страницы должны получать PR?

-потому, что закрытые страницы его по факту получают - они находятся в Гугле по ссылкам - именно за счет ПР + ссылочного ранжирования.

не получают PR, хотя он для них как бы резервируется. Резервируется, значит учитывается наличие ссылки, хотя по ней робот и не пойдет.

-ты имеешь в виду разделение ПР и Сс.Ранжирования? Так это в любом случае механизм для накрутки. А если это "резервирование" не влияет на выдачу, то на кой его вообще рассматривать? Я, честно говоря, вообще не понял, что это за резервирование такое.

Тут есть 2 недырявых варианта - либо ПР на закрытые страницы передается на общих основаниях, либо не передается вообще. Но закрытые страницы вылазят в поике - в пользу первого варианта.

В принципе, скорее всего, PR для страниц отсутствующих в индексе расчитывается. Но только по факту передачи на страницу. Закрытые страницы считаются тупиками.

-это я и имел в виду. И утекание PR НА них есть. Поэтому все методы "экономии"путем закрывания в роботс не имеют смысла.

Gray,

Мы народ ушлый, мы и это обоснуем также основательно

-во-во. Самый правильный ответ :)

Interitus,

Если считать что какая-то страница отдает часть PR закрытой от индексации странице, и эту закрытую страницу не учитывают при расчете PR остальных страниц (то что написали уважаемые EvgRen, Euhenio и LiM), то, согласно оригинальной формуле, PR всех страниц в интернете равен нулю

-мы такого не писали! Что значит "не учитывают"? Я лично имел в виду, что это аналог "висящей страницы", а ее надо учитывать. И PR они имеют, факт.

Есть два варианта толкования висячих страниц (коими, очевидно, являются закрытые от индексации страницы) - либо как содержащие одну единственную ссылку на первоисточник PR (www.google.com), либо ссылки на эту страницу не считаются при подсчете числа исходящих ссылок с нормальной страницы (т. е. если 5 ссылок на открытые страницы и 2 на закрытые, то открытым страницам отдается PR/5). Я склоняюсь ко второму варианту.

-второй мне не нравится, т.к., как народ и пишет дальше, можно использовать это для нагоняния PR.

Есть еще третий вариант: "ВИСЯЩИЕ СТРАНИЦЫ СЧИТАЮТСЯ НАРАВНЕ СО ВСЕМИ ОСТАЛЬНЫМИ, БЕЗ ПРЕДПОЛОЖЕНИЙ О ССЫЛКАХ С НИХ". Просто берется система и считается.

Polite Moose,

следует учитывать и возможность перемещения назад, то есть страница должна некую часть PR возвращать обратно. Это не коэфициент затухания, введенный для того, что бы до глубоких страниц (до которых трудно добраться) не мог дойти значительный вес. Это именно вероятность того, что будет нажат back

-в общем интересный вариант, но его надо в формулу забить с самого начала... Если даже и ссылки нет, но кнопак "бэк" - всегда есть.

Минуточку, о нагоне какого веса может идти речь, если данная страница не может быть проиндексирована? Да, непроиндексированные страницы находятся по ссылкам, но их собственный вес в данном случае ничего не значит. Точно также владельцу сайта нет никакого смысла нагонять вес на некие страницы, поскольку толку от этого веса не будет в принципе.

-ну, что я имею в виду под нагоном: пусть у тебя есть страница с высоким ПР. И с нее есть 100 ссылок (ну, на дорвеи, положим), из которых 99 закрыты в роботс.

Тогда: если ПР-ы всех страниц рассчитывать, учтя лишь ОТКРЫТЫЕ К ИНДЕКСАЦИИ ссылки (а их ровно одна), то все 100 страниц получат в 100 раз бОльший ПР, чем заслуживают. Хрен с ними, что они его дальше не передадут. И этого достаточно-они-то сами вылезут. Будь их хоть тыща.

Как бы мораль: так разбивать алгоритм на части нет смысла (т.е., считать прибавку ПР отделлно от уменьшения ПР). Т.е., это потенциальная дырка в алгоритме. Вероятно, Lim что-то вроде этого имел в виду.

Так их (закрытые ссылки) можно и не ставить вообще И тогда точно всё пойдет куда надо. Или можно, ссылки в JS засунуть. Было бы надо

-тогда и ПР не передастся на закрытые страницы, а он передается.

Немного о расчете висящих страниц. Вот где-то год назад (Professor свидетель :)) я делал такой эксперимент - 7 новых субдоменов, ссылающихся по цепочке на последний, висящий. Если выкидывать из расчета висящие страницы (собственно, что-то вроде этого я и хотел проверить), то после выкидывания седьмого становился висящим шестой, если его выкинуть, висящим был пятый и т.д. Вопрос был в том, "на сколько шагов назад" Гуль выкидывает. Или, на сколько шаков вперед просчитывает после выкидывания. (была такая маза, что после расчета без висящих страниц делается еще несколько итераций, с включением висящих страниц)

Так вот, все семь имели 4/10, включая висящий (ссылался на первый из них домен с пятеркой).

Кроме того, мне показалось, что я понял идеологию выкидывания висящих страниц (предположим, что это выкидывание существовало)

Идея проста: есть система N уравнений типа

Pi=(1-d)+d*sum(Pj/Cj)

где слева стоят страницы, НА которые есть ссылки, а справа - С КОТОРЫХ есть ссылки. Если эти множества совпадают, то если просуммировать все левые и все правые части, получается:

P=P1+..+Pn=N*(1-d)+d*(C1*P1/C1+...+Cn*Pn/Cn)

т.к. каждая Pj/Cj существует в правой части Cj раз

sum(P)=N(1-d)+d*sum(P)

=> sum(P)*(1-d)=N(1-d)

=>sum(P)=N

-это есть автоматическое выполнение условия нормировки. Автоматическое!!

Т.е. к-во расчетов существенно снижается. Это хорошо, и Гугль эим, вероятно, пользовался.

Но вероятно, дыры в алгоритме возникали при этом "выкидывании висящих". И Гугль отказался от этого выкидывания.

Gray,

Господа, я всерьез подумываю о введении нового правила, которое бы запрещало не только приводить конкретные сайты, но и обсуждать качество выдачи конкретных поисковиков. За последний месяц вы раз 10 начинали одну и ту же дискуссию под девизом - "Яндекс плохой!".
Надоело, знаете ли...

-в таком случае предлагаю не вводить правило, а завести раздел форума "Жалобы" или типа того. А кому неинтересно, тот сможет не читать.

Мне лично всегда интересно посмотреть на "частные случаи". Несмотря на то, что истина общеизвестна. :) (что Яндекс - плохой и все остальные тоже)

Тебе бы рОманы писать :)

Яндекс вербует агентов в среде членов профсоюза оптимизаторов и через них пытается выяснить, что оптимизаторам известно о новых алгоритмах работы поисковой машины. Агентам обещаны индульгенции на оптимизацию по поисковым фразам из трех слов. Агенты работают вяло и просят индульгенцию на два слова, но вместо этого их посылают на три буквы

-хорошо сказано!

Будем и в интернете эти маразмы создавать

-их не надо создавать, они уже есть :(

wolf, ты уж совсем пессимист :)

Стратегия лисы состоит в том, чтобы прятаться.

Сратегия охотника - найти лису и замочить из ружьишка.

Где это видано, чтобы они договорились? Например, пусть лисы и охотники договорятся, что стрелять по лисе можно только когда она крадет курей, а красть курей ей разрешается только ночью.

Никакого договора не выйдет.

А вот развивать свои способы прятаться - можно. И не так сложно. Больше делиться информацией друг с другом, встречаться, обсуждать.

Interitus, если ты про АдЛабз, то у меня на виду их клиент, который был на верхушке по климатической теме (3-6, сейчас - 11) и никто не давит.

рубили всех, в т. ч. АдЛабз, но вот что-то вернули все назад. Видимо число новых заказов на контекстную рекламу вышло меньше ожидаемого

-не слежу за запросами их клиентов, но если выдача по ним и менялась, так ведь не банили! А за манипулирование полагается известно что - бан. :) А если бана не было и не будет, то и другим не грех попробовать.

А вообще, интересно, конечно, самого Сашу услышать по этому вопросу. Таки можно или нет? :) Или есть те, которые равнее?

PS

Насчет аргументированного диалога. Вот Саша в одной из "злободневных" тем про изменение выдачи говорил, что, мол, вступим. Я привел пример ухудшения выдачи (про субдомены фирм), потом напомнил. Однако диалога не дождался.

Туфта-с... Болтовня-с... :)

Всего: 4720