Индексирование дублей страниц

E
На сайте с 10.03.2015
Offline
28
429

В вебмастере вижу, что проиходит индексирование дублей страниц.

в комментарии к дублю:

Страница https://мойсайт/albums/10002?styles=1&color=23 дублирует уже представленную в поиске страницу https://мойсайт/albums/10002. Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".

Нужно ли использовать 301 редирект или атрибут rel="canonical", если все страницы фильтров закрыть в robots.txt? Будет ли этого достаточно, чтобы дубли перестали плодиться или нужны и редиректы тоже?

И еще. После внесения изменений в файл роботс, сколько обычно нужно ждать изменений?

NellSEO
На сайте с 03.06.2017
Offline
12
#1

Для яндекса можно использовать директиву Clean-param: *, чтобы убрать индексирование страниц с гет-запросами в урл. Закрыв все страницы фильтров в роботсе, можно и не использовать canonical, но я бы перестраховался (Google оценит) и сделал бы все разом. В случае, если вы используете связку clean-param + canonical + robots, редиректы не нужны.

Обновите роботс в вебмастерах и изменения будут в течение недели-двух.

M
На сайте с 04.12.2013
Offline
223
#2

Elparmus, если сделать редирект, у вас фильтр, или что это у вас там, работать не будет.

Домены и скрипт для коротких ссылок: https://u75.ru/domains-for-shortcuts

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий