Закрыть результаты фильтров от поисковиков

ES
На сайте с 04.05.2005
Offline
109
445

На сайте есть урл нескольких видов:

http://sitename.ru/catalog/seriya/?filter=50:[20]

http://sitename.ru/catalog/seriya/nazvanietovara/?filter=50:[28]

http://sitename.ru/catalog/list.php?filter=50:[18]&type=typename

, где seriya - разные называния серий товаров, nazvanietovara - разные названия товаров и typename - разные названия типов товаров, а ?filter может принимать разные значения.

По сути, все эти урл - это фильтры вывода одних и тех же товаров на страниу. Фильтров много (точнее их комбинаций). В ацес логе вижу, что писковики с бешеной силой лопатят выше указанные страницы. По сути на этих страницах выводятся одни и те же данные, только в разных комбинациях.

Наверное самый верной способ в данном случае будет - закрыть доступ поисковикам к этим страницам через robots.txt.

Вот что у меня получилось: Disallow: /catalog/*?filter=*

Как вы думаете, нормальная маска получилась для robots.txt?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий