Коля Дубр

Коля Дубр
Рейтинг
153
Регистрация
02.03.2005
Должность
NetCat
Интересы
cms, музыка, лингвистика

Piligrim, ну, мы часам к семи пойдем =)

pelvis, ок

Oniks, э, учитывая, что ты пиво не пьешь, сложно сказать =) В плане покушать - конечно, не самое дешевое место. Ну, например - сосиска "большой мальчик, с локоть длиной" - 400р, весьма рекомендую ) Хотя, конечно, самое замечательное там - именно пиво.

Каширин, ок, забьем столик на втором этаже - там есть "ручка релевантности", в смылсе регулятор громкости.

Sim:
А есть ли экспериментальные данные,

Есть отрицательный опыт, но целенаправленно эксперимент не проводился, так что ничего утверждать не буду.

Sim:
которые это предположение подтверждают

Предположение не мое, кстати. Поищите тему, где оно выдвигалось, возможно, там была какая-то конкретика. Дело было прошлой осенью, если память мне не врет.

Revan:
что нас нае...

Revan, мы сами выбрали профессию =)

diafan, не все так просто.

Если такой фильтр существует, то его задача - отлавливать очевидно искусственные ссылки по признаку схожести. Ссылку из двух слов нельзя счесть очевидно искусственной - ничего не мешает многим веб-мастерам поставить такую ссылку... а вот если в ссылке 15 кивурдов через запятую перечислены, и такая конструкция возникает на 200 сайтах, есть повод усомниться в ее естественном происхождении: додуматься до такого, "не сговариваясь" - тяжело =)

Так что, есть предположение, что на вероятность склейки влияет длина повторяющегося пассажа - чем она больше, тем меньше повторений нужно для попадания под фильтр. Поищите, этот вопрос уже обсуждался весьма подробно.

kor2006:
Склейка ли это?

Это склейка - результатов поиска по сниппету. Сниппеты клеются "динамически", т.е. не сразу все, а при перемещении между страницами серпа, поэтому кол-во найденных серверов на первой и последней страницах может сильно различаться. Вот слова Садовского:


Яндекс убирает нечеткие дубликаты не только при индексации, но и во время выполнения запроса. Если два документа очень похожи в частях, соответствующих запросу, они считаются дубликатами по данному запросу. Удаление дублей делается постепенно, по мере листания, чтобы как можно быстрее отдать пользователю результаты. Именно с этим связано пресловутое "уменьшение" количества найденных страниц.

В случае запросов вроде url="...", контекстом считается описание документа в title + meta description. Многие сайты имеют одинаковые описания для всех документов, в таком случае печатаемое количество найденных страниц резко уменьшается при листании.

Это вот отсюда

Мои наблюдения показывают, что "части, соответствующие запросу" или "контекст запроса" - именно то, что выводится в сниппет. Хотя, не все так просто, но в целом примерно так.

Кстати, попробуйте добавить к запросу &rd=0 - по идее, этот параметр должен как раз отключать динамическое удаление дублей.

Надо понимать, что склейка сниппетов и склейка ссылок - совершенно разные явления, и если о склейке сниппетов многое известно (в т.ч. об этом неоднократно говорил Александр Садовский), то склейка ссылок - явление не доказанное, и, мягко говоря, спорное. В любом случае, влияние ссылок на ранжирование и их показ по запросам вида #link="..." - разные вещи. Ссылки, которые мы видим, могут не учитываться, с другой стороны, нам могут не показывать и работающие ссылки.

А вообще, таких тем много было, поищите.

Alex Kirillin:
По определению внешние ссылки вреда нанести не могут, иначе бы давно существола услуга "опускание сайтов".

Рискну не согласиться. Разумеется, лазейки, позволяющие занижать позиции сайта без особых усилий, Яндекс прикрывает (ну, аналогично и с повышением позиций). Но чтобы не практиковалось "опускание сайтов на заказ", достаточно, чтобы такая услуга требовала некоторых материальных и временных затрат, не давала 100% результата и была связана с определенными рисками.

На форуме обсуждалось несколько ситуаций, когда были подозрения на пессимизацию за внешние факторы. Но во всех случаях:

1 - не было 100% уверенности, что причины именно в ссылках

2 - проделать те же операции с сайтом конкурентов было бы неоправданно дорого

Кроме всего прочего, пессимизация может быть и незначительной, тогда ее даже не получится вычислить.

Плюс ко всему, есть средство борьбы с конкурентами, многократно проверенное и не требующее материальных вложений - форма delspam.xml - народу без надобности искать еще какие-то варианты.

Antonio_F, не понял вопроса =)

Почитайте вот это статью http://company.yandex.ru/articles/article10.html

там ближе к концу описан алгоритм "шинглов" - разумеется, на самом деле алгоритм совсем другой =), но суть, думаю, та же.

Эксперименты по этому вопросу либо не проводились, либо их результаты не разглашались... во всяком случае, на моей памяти =)

Alex Kirillin:
Яндексовые банильщики

В смысле роботы, или в смысле Платоны?

rebel,

1. Учимся не махать чужими урлами, дурной тон, знаете ли.

2. Учимся писать слово пессимизация (лат. pessimus - худший)

3. Учимся делать кликабельные ссылки

4. Помним, что сейчас в выдаче сплошной бардак, видимо, связанный с техническими проблемами Яндекса.

СКОРПИОН:
Немцы - это машина.

За то я их и люблю =)

Хотя поляков, конечно, жалко.

Всего: 1529