снова robots.txt

andyzzz
На сайте с 17.05.2007
Offline
67
646

Вопрос следующий, как в роботсе правильно прописать, что бы закрыть ссылки от индексации, такого плана:

/store/beton/?sort=abcasc

/store/beton/?sort=pricedesc

Disallow: /*?*

не предлагать т.к. есть страницы такого плана /store/beton/?p=6 которые нельзя закрывать.

Light Phantom
На сайте с 17.03.2007
Offline
188
#1

Disallow: /store/beton/?sort=

andyzzz
На сайте с 17.05.2007
Offline
67
#2
Light Phantom:
Disallow: /store/beton/?sort=

мммм ок

а если у меня таких страниц очень много с разными папками

/store/beton/?sort=abcasc

/store/beton1/?sort=abcasc

/store/beton2/?sort=abcasc

/store/beton3/?sort=abcasc

и т.д.

их очень много, вручную прописать все нереально

можно как нибудь типа Disallow: /?sort=

или это не правильно?

Light Phantom
На сайте с 17.03.2007
Offline
188
#3

Тогда:

Disallow: /store/beton*/?sort=

или

Disallow: */?sort=

Есть замечательный инструмент у Яндекса: http://webmaster.yandex.ru/robots.xml

Формируйте роботс и проверяйте, правильно ли он работает :)

andyzzz
На сайте с 17.05.2007
Offline
67
#4
Light Phantom:
Тогда:
Disallow: /store/beton*/?sort=
или
Disallow: */?sort=

Есть замечательный инструмент у Яндекса: http://webmaster.yandex.ru/robots.xml
Формируйте роботс и проверяйте, правильно ли он работает :)

СПАСИБО! )

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий