Как лучше закрыть дубли страниц

12
N
На сайте с 02.12.2011
Offline
23
#11

Насколько я понимаю, такая же ситуация может быть и у любого интернет-магазина, в котором товары раскладываются по тегам (и каждый может быть в нескольких категориях). Получается набор URL, по которым показываются идентичные страницы:

http://site.ru/producer1/424

http://site.ru/category1/424

http://site.ru/category2/424

......................................

То есть в том случае рекомендуется закрыть через robots.txt все страницы, кроме одной по следующему правилу Disallow: /category1/* ? Редирект, наверное, не самое лучшее решение. Ведь если пользователь смотрит, например, раздел интернет-магазина "Большие холодильники", то переадресовывать его на URL /имя производителя холодильников/id товара - не самая лучшая вещь, которую можно сделать.

А если страницы товаров продвигаются по НЧ, например с названием моделей бытовой техники? Большее количество даже внутренних ссылок на эти страницы не поможет в продвижении по НЧ? Или ссылка на эту страницу, но по другому URL'у, не добавляет ей веса? Происходит ли автоматическая склейка таких страниц? Наблюдаю интернет-магазин, в котором это происходит частично (часть страниц товаров содержится в индексе в единственном числе, часть в нескольких копиях по разным URL)?

Спасибо.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий