anna1levickaya

Рейтинг
0
Регистрация
16.09.2019

Здравствуйте!

Подскажите пожалуйста, было дело, мы поставили модуль для SEO, а он нам наплодил непонятную кучу дублей. На сайте у нас стоит Opencart 2.3.

Стандартные закрыты вот так и все нормально:

Disallow: /*?page=

Disallow: /*&page=

А сейчас мы имеем дубли такого вида:

https://сайт.ру/категория/page-3

https://сайт.ру/категория/подкатегория/page-5
https://сайт.ру/категория/подкатегория/подкатегория/page-8

Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул