Здравствуйте!
Подскажите пожалуйста, было дело, мы поставили модуль для SEO, а он нам наплодил непонятную кучу дублей. На сайте у нас стоит Opencart 2.3.
Стандартные закрыты вот так и все нормально:
Disallow: /*?page= Disallow: /*&page=
А сейчас мы имеем дубли такого вида:
https://сайт.ру/категория/page-3 https://сайт.ру/категория/подкатегория/page-5 https://сайт.ру/категория/подкатегория/подкатегория/page-8
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул