Tonjob

Рейтинг
3
Регистрация
06.09.2005

Много где слышно про бан за создание таких сетей. Если можно, расскажите подробнее об этом. Какие критерии бана такой сети?

Основная проблема с блогами - уникальный контент, который к тому же был бы читаемый.

2dpromo: в следующий раз картинку нарисую! :-)))

2greenwood: да вообщем расчитать оптимальное распределение PR при разных перелинковках не проблема. Просто я читая архивы форумов часто натыкался на такую идею, что гугл может забанить за некую некорректную перелинковку. Это везде как-то мельком, но там фигурировали слова "перелинковка" и "субдомены". Вот и хотел спросить, вдруг кто-нибудь что-нибудь знает... По идее это к дорвейшикам вопрос в первую очередь должен быть. :-)

Ээээ... неужели я задал настолько глупый вопрос, что в течении четырех дней нет ни одного комментария? :-)

Понятно, что ничего не понятно...

Варианта два:

1. Гугл проверяет уникальность документа на этапе индексации. Тогда запрос здесь совершенно не при чем. Гугл сравнивает документ с n-миллиардов документов в базе и, в случае DP, выставляет документу соответствующую пометку, на которую ориентируется при выдаче на запрос.

Вообщем, как я уже говорил, данная сложность гуглу просто не под силу.

2. Гугл, получая запрос, сравнивает документы на лету. Вообщем та же фигня, для гугла это непосильная задача.

Комментирую так же реплику насчет 11 страницы. Понятно дело, что люди не ходят дальше 11 страницы. Но чтобы сформировать эти 11 страниц гугл делает выборку из всей базы в 13 миллиардов документов. Итак, ему бы требовалось:

1. Сделать выборку.

2. Сравнить полученные N миллионов документов.

3. Отранжировать полученные N миллионов документов.

Вообщем-то такая постановка вопроса кажется фантастической.

Вариант другой.

1. Гугл делает выборку.

2. Ранжирует документы исходя из основных критериев.

3. Делает на лету сравнение первых 100, к примеру, документов и выкидывает неуникальные.

Увы, у меня сейчас нет под рукой программиста, чтобы спросить о реалистичности данного варианта.

2greenwood: а есть другие варианты?

И сравнивают на лету? Была такая идея... Берем запрос - car loan mexico и получаем более четырех миллионов записей в базе. Вы себе как представляете сравнение каждой с каждой страницы из 4 миллионов (а можно и больше запрос подобрать) в течении 0.3 секунд?

Еще вопрос...

Вообщем мы тут вот сидели и думали, каким образом гугл мог бы это делать. Вообщем если каждый документ сравнивать с 13 миллиардами в индекс то никакой производительности не хватит. Есть здесь математики, у которых есть идеи, как это реализовать?

Tonjob:
А насколько сильные должны быть изменения? То есть если в абзаце из 100 слов изменить, скажем 5-10 слов. Наверняка в такой ситуации в гугла просто не хватит сообразительности найти схожесть?

Прошу прощения за назойливость, но так никто и не прокомментировал вопрос, который выше. Наверняка ответ достаточно простой. :-)

Спасибо.

2Константин: не уверен, но вроде по кэшу действительно было бы логичнее..

А насколько сильные должны быть изменения? То есть если в абзаце из 100 слов изменить, скажем 5-10 слов. Наверняка в такой ситуации в гугла просто не хватит сообразительности найти схожесть?

2Gerem: а что, есть возражение против такой упрощенной формулировки эволюционного процесса?

Могу еще что-нибудь сказать... Например... огромное количество поискового спама в запросах гугла есть ни что иное, как одно из проявлений капиталистического мира, которое заставляет людей тратить энергию не столько на прямое созидание, сколько за добычу денег... Только в капиталистической модели устройства общества возможна ситуация, когда разнообразные спекулянты, перепродавцы, финансисты и тому подобные оказываются на ступень выше в социальной лестнице, чем те люди, которые занимаются реальным созиданием. :-))) Ну вообщем этот бред можно не комментировать.

12
Всего: 13