Подскажите пожалуйста, с robots.txt

M
На сайте с 14.07.2010
Offline
84
312

Подскажите пожалуйста, с robots.txt:

Есть сайт

необходимо закрыть дубли страниц: например сайт.юа

Таким образом закрыты каталоги об дублей:

Disallow: /catalog/*?s=*

Disallow: /catalog/*&s=*

Disallow: /catalog/*?q=*

Вот таким образом выглядят дубли, страницы с товарами:

сайт.юа/catalog/jenskoe/?p=2

сайт.юа/catalog/jenskoe/?p=3

сайт.юа/catalog/jenskoe/?p=4

сайт.юа/catalog/jenskoe/?p=5

Если их закрыть то, Так, чтоли:

Disallow: /catalog/jenskoe/*?s=*

Disallow: /catalog/jenskoe/*&s=*

Disallow: /catalog/jenskoe/*?q=*

Подскажите пожалуйста как их закрыть.

---------- Добавлено в 02:50 ---------- Предыдущее сообщение было в 02:44 ----------

Разобрался, просто:

Disallow: /catalog/*?p=* (Закрываем дубли страниц после)

Тогда так будет правильно)? - на странице тока "р",а "s" уже закрыто)

Верно?

Есть и такое: ?p=5&s=3_4

Верно?

_________Продвижение в Google, Yandex__________

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий