Закрытие в robots.txt

AS
На сайте с 19.03.2012
Offline
31
496

У меня есть страницы:

http://site.ru/category/1/Page-1.html

http://site.ru/category/1/Page-2.html

http://site.ru/category/1/Page-3.html

http://site.ru/category/1/Page-4.html

У всех одинаковый description. В них нет контента и для продвижения они мне не нужны. Я хочу закрыть их в robots.txt. Это нужно сделать так:

Disallow: /category/1/Page*.html

или я что-то не понимаю?

wwwwww
На сайте с 29.04.2011
Offline
195
#1

Да. Можно.

Закрыты будут также страницы с любым окончанием.

http://site.ru/category/1/Page-5(6,7,8,9,10).html

Если есть страницы с большими номерами, то стоит закрывать по одной. Без маски.

Видишь? Свободная подпись.
ST
На сайте с 13.04.2009
Offline
112
#2

все верно, а вообще проверяйте роботс в яндексе - http://webmaster.yandex.ru/robots.xml

Кратк. сестр. тал.
greenlen
На сайте с 30.05.2011
Offline
117
#3
AlekseySid:
или я что-то не понимаю?

Все правильно понимаете.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий