robots.txt – подскажите как закрыть дубли?

RibkisMukoi
На сайте с 05.05.2010
Offline
160
619

Здравствуйте!

Столкнулся с проблемой - дублируется контент и немогу сообразить как его правильно в роботсе прикрыть, дубли выглядят так, это не папки а страницы разделов ИМ:

searchengines.ru/katalog/nariad

searchengines.ru/katalog/nariad/page-1

searchengines.ru/katalog/nariad/genskii

searchengines.ru/katalog/nariad/genskii/page-1

searchengines.ru/katalog/nariad/mugskoi

searchengines.ru/katalog/nariad/mugskoi/page-1

вот и нужно закрыть все страницы "page-1", но у них очень разная вложенность и их много чтобы прикрыть каждый в отдельности + будут еще сосздаваться разделы и что бы один раз решить хочется прикрыть их по маске в роботсе, но не могу сообразить как, подскажите пожалуйста?

Вывод из под фильтров ПС. Аудит сайтов ( http://igorshevchenko.su/audit-saita.html ). Контекст. Оптимизация. Продвижение сайтов ( http://igorshevchenko.su ). Консультации по SEO ( http://igorshevchenko.su/seo-prodvizhenie.html ), и другие услуги интернет-маркетинга ( /ru/forum/977889 ).
nik_kent
На сайте с 05.02.2008
Offline
193
#1

Disallow: /*page-1

С уважением, Николай.
RibkisMukoi
На сайте с 05.05.2010
Offline
160
#2

nik_kent, спасибо! Помогло, а то два дня не мог сообразить как это правильно прописать (:

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий