Запрет дублей страниц с параметрами

wa-lk
На сайте с 26.09.2012
Offline
140
431

Яндекс пихает в поиск страницы вида

/351-malaysiamalaysia.html?utm_source=feedburner&utm_medium=twitter&utm_campaign=Feed:+malaysia+(malaysia)

Какая директива роботса правильнее?

1. Clean-param: ?utm_source *.html

2. Disallow: /*?utm_source=feedburner*
anebilitsa
На сайте с 07.02.2012
Offline
167
#1
wa-lk:
Яндекс пихает в поиск страницы вида
/351-malaysiamalaysia.html?utm_source=feedburner&utm_medium=twitter&utm_campaign=Feed:+malaysia+(malaysia)

Какая директива роботса правильнее?

1. Clean-param: ?utm_source *.html
2. Disallow: /*?utm_source=feedburner*

Думаю нужно обе употребить, потому как clean-param просто указывает какие ссылки не считать стоящими. А disallow даёт понять, что не нужно индексировать страницу ( так как в вашем случае она уже в индексе, тогда стоит добавить эту команду).

Ещё мне кажется, что правильнее будет вот так:

Clean-param: ?utm_source /*\.html

Disallow: /*\?utm_source=*

Отличный облачный майнинг (https://hashflare.io/r/D9BC3BC7) Аудит и продвижение сайтов (/ru/forum/935103) | Сервис для снятия позиций сайта (http://allpositions.ru/redirect/28240)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий