Две разных ссылки. Один контент. Плохо?

12
SF
На сайте с 28.06.2007
Offline
113
563

Речь про интернет-магазин.

Один товар может быть в нескольких категориях.

Таких образом, две разных ссылки приводят на совершенно одинаковые страницы.

http://site.ru/category/subcategory/product/

http://site.ru/category/subcategory2/product/

Как относятся к такому ПС? Можно ли как-нибудь явно указать, что это одна страница во избежание недоразумений со стороны ПС?

MaverickC
На сайте с 17.01.2011
Offline
74
#1
SciFi:
Речь про интернет-магазин.
Один товар может быть в нескольких категориях.
Таких образом, две разных ссылки приводят на совершенно одинаковые страницы.

http://site.ru/category/subcategory/product/
http://site.ru/category/subcategory2/product/

Как относятся к такому ПС? Можно ли как-нибудь явно указать, что это одна страница во избежание недоразумений со стороны ПС?

относится как к дублированному контенту и часто приводит к АГС, в данном случае вам лучше ЧПУ настроить так, что бы товар всегда имел вид, например http://site.ru/productID/

SF
На сайте с 28.06.2007
Offline
113
#2

К сожалению, перенастройка ЧПУ сейчас будет слишком большой жертвой.

А что если я ручками буду исключать из индексирования страницы в robots.txt?

Это спасет?

Или может все же существует какое-нибудь автоматизированное решение?

M
На сайте с 29.04.2011
Offline
17
#3
SciFi:
К сожалению, перенастройка ЧПУ сейчас будет слишком большой жертвой.

А в чём жертва заключается?

SF
На сайте с 28.06.2007
Offline
113
#4

Во-первых, в некоторой сложности процесса в моем случае.

Во-вторых, настроено множество ссылок, баннеров, объявлений, которые уже работают по этим ссылкам.

AM
На сайте с 09.01.2007
Offline
467
#5

а вот прочитали бы хелп яндекса и проблемы бы не было

http://help.yandex.ru/webmaster/?id=1111858

обратите там внимание на атрибут rel="canonical" тега <link>

MaverickC
На сайте с 17.01.2011
Offline
74
#6
SciFi:

А что если я ручками буду исключать из индексирования страницы в robots.txt?
Это спасет?

Не спасет, если вбивать ссылки на удаление - яндекс быстрее наложит фильтр, чем исключить не нужные страницы.

Еще варианты, если категории прогнизируемые, то можно задать запрет в robots.txt на всю категорию с дублями или если есть знания, можете использовать http://devaka.ru/articles/link-rel-canonical

V1@d!m!r
На сайте с 09.10.2007
Offline
97
#7

Disallow в robots.txt поможет

sevan
На сайте с 03.03.2006
Offline
139
#8
MaverickC:
Не спасет, если вбивать ссылки на удаление - яндекс быстрее наложит фильтр, чем исключить не нужные страницы.

Это предположение или личный опыт? :)

MaverickC
На сайте с 17.01.2011
Offline
74
#9
sevan:
Это предположение или личный опыт? :)

предположение: 50 на 50 :)

sevan
На сайте с 03.03.2006
Offline
139
#10
MaverickC:
предположение: 50 на 50 :)

неверное...никаких проблем с удалением страниц через форму...единственная - вроде как по маске нельзя, то есть - каждую страницу вбивать нужно

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий