Определение Я оригинальности контента

1 23
shmelina
На сайте с 12.09.2005
Offline
168
#21
Alar:

Про Пушкина. Не хотелось бы в поиске выйти на многотомник Пушкина. Если я на сайте публикую книгу, которая уже есть в сети, я загоняю её в архив. и пишу лишь название, автора и краткое описание. Т.е самое основное, по каким описанием пользователь будет её искать.

а если человек помнит строчку из стихотворения, и хочет по ней найти само произведение? Получается в сети должен быть только один сайт, на котором выложено полностью стихотворение, так что ли?

Astaldo
На сайте с 28.01.2006
Offline
174
#22

Alar, Знаете, а у кого-то нет кпк, кому-то удобнее, ковыряя в носу на работе, читать книги с монитора, особенно, если жк... и, реально, лопатят глубокие страниицы.

Live as if you were to die tomorrow. Learn as if you were to live forever. Mahatma Gandhi
[Удален]
#23
Alar:
лишь название, автора и краткое описание. Т.е самое основное, по каким описанием пользователь будет её искать.

а еще и накачать внутренними факторами? ;)

Alar
На сайте с 06.07.2006
Offline
94
#24
Astaldo:
Alar, Знаете, а у кого-то нет кпк, кому-то удобнее, ковыряя в носу на работе, читать книги с монитора, особенно, если жк... и, реально, лопатят глубокие страниицы.

Я же сказал про себя. Я понимаю, что у всех свои хотелки.

Ранее один из пользователей упоминал про огромную базу сайтов, потому невозможно отследить все страницы. Я даже сказал бы так, робот смотрит новые морды что-ли. Главное чтобы морды были уникальны. А если сайт давно, то я не замечал случаев склейки и зазеркаливания.

Отсюда вывод что никто не будет целые сайты убирать если они отчасти уникальны.

В2
На сайте с 25.06.2006
Offline
3
#25
zig:
У яндекса есть одно НО - размер базы.
Нужен какой-то быстрый алгоритм выборки..
Искать по предложению или абзацу - немного не правильно, очень долго, и не рационально.

Быстрый алгоритм - основная функция Яндекса - поиск. Яндекс начинает отсеивать дубли, когда пользователь начинает листать страницы с результатами поиска, при этом количество найденных документов уменьшается, ИМХО конечно. Но по-моему представители Я сами так об этом писали где-то на этом форуме.

Z
На сайте с 23.06.2006
Offline
16
zig
#26
Виталий21:
Быстрый алгоритм - основная функция Яндекса - поиск. Яндекс начинает отсеивать дубли, когда пользователь начинает листать страницы с результатами поиска, при этом количество найденных документов уменьшается, ИМХО конечно. Но по-моему представители Я сами так об этом писали где-то на этом форуме.

Хм. По логике так и должно происходить - во время конкретного запроса делать анализ. Т.к. выборка все равно происходит при запросе и она в некоторой степени оригинальна. Рассуждения по поводу дальнейшего использования инфы из конкретного серпа приводить не буду - много их.

Кстати, иногда по запросу "хостинг" дальше второй страницы нет сайтов. Не во время апов.

Вот фильрует ведь дубли:)

Не стоит доверять этим цифрам.

И не стоить путать зеркала и дубли.

Дубли в выдаче есть и будут, их ну никак нельзя убирать.

Максимум - опускать дубли вниз.

Кол-во страниц не должно при этом изменятся в серпе, было бы странно.

И почему именно на второй-трейтьей-пятой странице серпа?

Могу предположить, что в целях экономии ресурсов конечно... но скорее это может объясняться структурой поискового движка и конкретным механизмом кластеризации.

+ могут оказывать влияние механизмы кеширования серпов.

Все ес-но мое имхо и не сфера моеё деятельности.

Если кто-то что-то знает по теме - сообщите.

Интересно, для общего развития.

Z
На сайте с 23.06.2006
Offline
16
zig
#27

Все таки нашел.

/ru/forum/56951

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий