farlow, сайт-оригинал может иметь полный функционал для работы, сайт-копия - только клонированный текст без функционала, соответственно неверное определение первоисточника может привести к тому что пользователь будет в принципе не в состоянии найти то, что ему надо, а будет находить только пустышки с таким же текстом.
Кроме того вопрос авторского права я тоже считаю важным - в примере когда с сайта воруется контент и размещается на других сайтах.
Свою точку зрения насчёт дублей я выразил достаточно ясно в этой теме, также как и вы свою. Поэтому я не вижу смысла ещё раз её объяснять.
Ну как может быть не важно, кто первоисточник, если речь идёт об удалении одинаковых результатов из выдачи.
ZoomY добавил 13.01.2011 в 18:33
Чтобы сформировать эти 1-31, нужно обработать весь индекс.
Сервисы статистики отслеживают активность при помощи скрипта, который устанавливается на страницы сайта.
В изображение код вставить невозможно - делайте выводы.
Каким образом откроется страница, в которой вставлен код - не принципиально.
тИЦ присваивается не поддомену, а разделу сайта - будь он расположен на поддомене или в папке. Откройте приведённый выше пруфлинк и посмотрите на позицию №6.
Вы у меня об этом спрашиваете? ))
Это к Яндексу вопрос.
Яндекс сконцентрирован на ТОП-30 выдачи - всё, что идёт дальше, не сортируется и если сайт меняет в выдаче позицию с 31-й на 901-ю, это ровным счётом ничего не значит и не свидетельствует о каких-либо поисковых санкциях.
Я в принципе считаю выдачу Яндекса неадекватной и не пользуюсь им как поисковиком, но в данной ситуации не вижу ничего зазорного чтобы отодвинуть подальше дубли, а не совсем их исключать.
Я считаю правильной мысль тратить ресурсы на улучшение выдачи в ТОП-10, а не на чистку дублей где-то на галёрках.
Рядовой пользователь находит то, что ему нужно, как правило в первой десятке или двадцатке, если не находит - меняет или уточняет поисковый запрос.
Выдача на тридцатых-пятидесятых местах едва ли будет объектом его пристального изучения.
Здесь важен вопрос первоисточника.
Очевидно, что алгоритм исключения дублей будет работать одинаково и для запроса "google analytics" (где ответ очевиден), и для запроса "мавроди запустил пирамиду 2011" (где масса одинаковых публикаций и не столь очевидно, кто первоисточник), поэтому такой алгоритм может и будет исключать первоисточники (которые не были определены как таковые) из выдачи, что не есть правильным.
Нужен мобильный телефон, цвет выбирать вам - (серый, чёрный, белый)
Внимание: телефон должен быть таким, чтобы мой телефонный номер вышел из чёрного списка такси.
Жду предложений
loginsru, внесённые коррективы - это если бы они манипулировали выдачей вручную (чего вы от них и хотите). А тут - всё логично, всё по алгоритму.
С вашими же документами вам не к Яндексу, а в суд. Только вы этого не понимаете, точней не хотите слушать, поскольку вы считаете что ваша точка зрения единственно верная. Поэтому ничего и не добьётесь.
Представим, что кому-то нужно найти все дубли.
Что ему тогда делать? Если по вашему дубли надо исключать из выдачи.