Robots.txt и "*", "$"

Psionik
На сайте с 16.04.2013
Offline
44
279

Привет. Такая ситуация что на сайте в каталогах имеются ссылки на страницы каталога и сколько показывать товара на страницу. Хочу закрыть эти "дубли" страниц в робтс.тхт. Ссылки выглядят таким образом:

/catalog/pilyastri/{id-страницы}?ipp={Товаров на страницу}

/catalog/pilyastri/{id-страницы}/page/{Номер страницы}

Ссылки на товар совершенно не связаны с этими страницами.

Каким образом будет более правильно прописать в robts.txt ссылку?

Как из вариантов, которые я счёл верными:

/catalog/pilyastri/*?ipp=* - этот вариант похоже вообще не будет работать. Если даже и сработает он может закрыть такие ссылки как "/catalog/pilyastri/92"

/catalog/pilyastri/92/page/*

/catalog/pilyastri/92/*

[PHP, MYSQL, JS, BASH, APACHE, HTML, CSS, Yii, MODX, 500 rur hour]
wildbeez
На сайте с 13.06.2012
Offline
68
#1

вот это /page/ наверное ссылки пагинации? если да, то закройте их все */page/*

как вот это *?ipp=* может запретить это /catalog/pilyastri/92 ??

это *?ipp=* запретит ссылки вида: урл*?ipp=*любое значение

но ссылки которые не будут содержать *?ipp=* не запретятся

то есть чтобы закрыть

/catalog/pilyastri/{id-страницы}?ipp={Товаров на страницу} -- Disallow: *?ipp=*

/catalog/pilyastri/{id-страницы}/page/{Номер страницы} -- Disallow: */page/*

долго не думал но вроде так

P0
На сайте с 14.06.2013
Offline
126
#2

как вайлдбиз говорит, точно делать не надо

если останется параметр ?ipp то юзайте clean param

для пейджей вроде так - /page/*

башка уже не варит, так что проверьте)

Процветай и просвещайся, друг

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий