Я не знаю, что именно вкладываете в эти показатели вы, или поисковики. Но я имел в виду следующее:
Поисковики учитывают множество показателей при ранжировании страницы. Допустим, что при прочих равных у двух подходящих под запрос страниц все показатели одинаковые, кроме параметра, который определяется ссылающимися на страницу ссылками (внешними и внутренними). Как этот параметр точно у поисковиков называется я не знаю ("вес", PR, вТиц и т.д.), но именно он определит, какая страница будет выше.
Вопрос и был в том, что не ухудшается ли этот параметр из-за того, что часть внутренней перелинковки мы закрыли в nofollow.
Конечно, 100% гарантию дает полное их удаление, но это не возможно.
Закрытие ссылок в JS тоже не лучшее решение, т.к. ухудшаются поведенческие факторы сайта.
Возможно, что эффект от nofollow на этот параметр есть, но он незначительный (т.е. мы сейчас имеем 98% от потенциального значения) и поэтому вся дополнительная суета излишняя.
А возможно, эффект сильный и мы теряем в посещаемости. И лучше пусть будут лишние дубли страниц (см. причину в начале топика), чем закрывать часть хлебных крошек.
Спасибо за хороший ответ.---------- Добавлено 29.01.2015 в 17:41 ----------
Наверно, я неправильно сформулировал.
Конечно, вес никуда не уходит. Он просто передается новым страницам.
Потенциально, если бы все ссылки были обычными, то страница могла передать свой вес другим внутренним страницам на все 100%.
У меня же подозрения, что если часть внутренних ссылок nofollow, то другим страницами передается не 100%, а 80% от потенциального возможного (для приведенного выше примера). Т.е. другие разделы страницы недополучают то, что могли бы.
Убрать лишние ссылки не получится. Они у нас в основном в хлебных крошках.
У нас на сайте каталог предложений очень глубокий (4 уровня вложенности) + географическая фильтрация.
Хлебные крошки выглядят так:
Сегмент > Подсегмент > Категория > Подкатегория
Россия > Пермский край > Пермь
В итоге имеем много страниц с повторяющимися анонсами товаров. Чтобы избежать дублей, поисковику позволяем работать только с последним уровнем - Подкатегория. Все остальные закрыты для индексации.
Для пользователей ссылки открыты. По ним можно переходить по сайту.---------- Добавлено 29.01.2015 в 11:49 ----------
Ссылки закрыты и в robots и просто тегом. Так надежнее)
Под потерей "ссылочного веса" я имею ввиду следующее. Допустим на некой странице аккумулируется некий "ссылочный вес", который образуется за счет того, что на нее ссылаются другие страницы.
Эта страница отдает этот "вес" другим внутренним страницам, на которые сама ссылается. Допустим ссылок 10. Однако 2 из них являются закрытыми для поисковика. Отсюда вопрос. Оставшиеся 8 ссылок передают весь "вес" страницы или только 8/10 (а 2/10 уйдут в никуда)?