Закрытие динамики через robots.txt

R
На сайте с 29.09.2010
Offline
64
493

Добрый день. Подскажите как возможно закрыть различные динамические страницы.

Пример: site.ru/catalog/18?NUM=30&SORT=price&IBLOCK_ID=18

Меня интересует как можно закрывать страницы начинающие с ?NUM и другие.

Disallow: /*?NUM или так *?NUM

Проконсультируйте как закрыть через robots такие страницы. Этих страниц физически нет на сайте, но они индексируются. 404-ю ошибку не получилось поставить, сейчас работает 301-й редирект на главную. Возможно какие-то ошибки совершаю, так что не сильно критикуйте.:popcorn:

Alipapa
На сайте с 01.02.2008
Offline
234
#1

Можно просто перечислить параметры, например:

Clean-param: NUM&SORT&BLOCK_ID

В этом случае в индекс не будут попадать страницы с любым из перечисленных параметров

Биржа фриланса - простая и удобная (http://kwork.ru/ref/2541)
R
На сайте с 29.09.2010
Offline
64
#2

Почитал посты с серча clean param у многих некорректно работает.

А мой способ некорректен?

Disallow: /*/*?NUM

Disallow: /*/*?SORT

Т.е я пытаюсь закрыть от индекса любые пути содержащие в url NUM и SORT

H
На сайте с 04.04.2008
Offline
160
#3
RZNpost:
Почитал посты с серча clean param у многих некорректно работает.

А мой способ некорректен?

Disallow: /*/*?NUM

Disallow: /*/*?SORT

Т.е я пытаюсь закрыть от индекса любые пути содержащие в url NUM и SORT

Должно сработать, пробуйте! ;)

Alipapa
На сайте с 01.02.2008
Offline
234
#4
RZNpost:
Почитал посты с серча clean param у многих некорректно работает.

Не знаю, как у других, у меня работает четко. Еще rel="canonical" хороший инструмент

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий