robots.txt Как исключить страницы из индекса?

FS
На сайте с 08.03.2011
Offline
91
1811

Есть сайт на движке вебасист с кучей дублей. Хочу закрыть ненужные страницы от индексации в роботсе. Дубли имеют следующие адреса:

http://wдаблюw.mysite.ru/category/sredstva/offset10/

http://wдаблюw.mysite.ru/category/sredstva/?sort=name&direction=DESC

http://wдаблюw.mysite.ru/category/sredstva/all/

http://wдаблюw.mysite.ru/category/sredstva/?sort=name&direction=ASC

http://wдаблюw.mysite.ru/category/sredstva/all/?sort=customers_rating&direction=DESC

http://wдаблюw.mysite.ru/category/sredstva/?sort=customers_rating&direction=ASC

В роботсе это должно выглядеть как-то так:

User-agent: *

Disallow: /offset10

Disallow: /?sort=name&direction=DESC

Disallow: /all

Disallow: /?sort=name&direction=ASC

Disallow: /?sort=customers_rating&direction=ASC

Или можно как-то проще сделать?

allleXX77
На сайте с 31.10.2010
Offline
94
#1

Disallow: /*

)))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий