Как правильно запретить в robots.txt индексацию страниц-меток

CP
На сайте с 10.09.2010
Offline
52
421

Мы часто ставим в наших ссылках из рекламы метки, типа: nash-site.com/?fromreklama - чтобы отслеживать эффективность той или иной рекламы. Для яндекса, насколько мне известно, такие страницы являются дублями, т.к. на них то же содержание, что и на основной странице - а это не лучшим образом сказывается на оптимизации. Ссылок с метками очень много, метки все разные, поэтому забить в robots все метки просто нереально - например, у нас есть метки с рассылки (?frompismo1, ?frompismo2 и т.д.). Есть ли возможность единожды забить в robots.txt целый ряд похожих меток (типа как с рассылок, когда содержание отличается одним символом)?

denden11
На сайте с 29.06.2005
Offline
94
#1

Disallow: /*frompismo = запрещает все что содержит frompismo

CP
На сайте с 10.09.2010
Offline
52
#2
denden11:
Disallow: /*frompismo = запрещает все что содержит frompismo

Большое спасибо!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий