Вопрос по robots.txt

Roman_
На сайте с 13.01.2008
Offline
150
358

Стоит задача убрать дубли страниц, закрыв от ПС урл /category, но не закрывать /category/ и /category/page.html

То есть если на конце урла категории есть слеш, то страница должна быть открыта, а если нет, то закрыта.

У Яндекса это можно сделать прописав в роботс: Disallow: /category$

Собственно сам вопрос - правильно ли это все поймет гугл?

kimberlit
На сайте с 13.03.2007
Offline
370
#1
Roman_:
Собственно сам вопрос - правильно ли это все поймет гугл?

На Google тебя забанили что ли?

http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий