помогите с роботсом плз

M
На сайте с 13.06.2012
Offline
77
384

Здравствуйте, как в роботсе правильно закрыть от индексации страницы с такими частями в урл?

http://site.com/buy.html?p_name=

/?page_id=63

/?cat=5

/?author=

Роботс выглядит вот так:

User-agent: *

Disallow: /author/

Disallow: /page/

Disallow: /buy.html

Запарился, и не могу достоверный мануал найти...кто уверен, подскажите как эти 4 строки закрыть...

Заранее благодарен

InLessa
На сайте с 18.10.2012
Offline
55
#1

Что мешает просто закрыть?:

Disallow: /buy.html?p_name=

Disallow: /?page_id=63

Disallow: /?cat=5

Disallow: /?author=

Бороться, искать, найти и.. перепрятать.
M
На сайте с 13.06.2012
Offline
77
#2

смысл закрыть не 1 страницу, а "класс"

в том то и проблема, не понимаю разницы

Disallow: /page/ - должна закрывать /?page_id=63, но ПС видит

Disallow: /buy.html - должна ведь закрывать http://site.com/buy.html?p_name=

?

Gennadi
На сайте с 18.12.2012
Offline
138
#3

Disallow: /*page*

Disallow: /*name*

M
На сайте с 13.06.2012
Offline
77
#4
Gennadi:
Disallow: /*page*

Disallow: /*name*

такая формулировка закрывает все страницы сайта в которых есть в урл page и name?

в таком случае, что делает Disallow: /buy.html?

Gennadi
На сайте с 18.12.2012
Offline
138
#5
mvgoncharenko:
такая формулировка закрывает все страницы сайта в которых есть в урл page и name?

в таком случае, что делает Disallow: /buy.html?

На первый вопрос ответ да.

На второй если есть без хтмл. то Disallow: /*html* а если нету то отлавливать по словам дапьше

или редиректить.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий