Запрет конкретных страниц в roborts.txt

[Удален]
690

Дано :

User-agent: *

Disallow:

Нужно :

Запретить к индексации следующие страницы

/show/100/

/show/100/?page=1;sort=cost_1r

/show/100/?page=1;sort=new;desc=0

/show/101/

/show/102/

/show/103/?page=26;sort=new;desc=0

/show/105/

/show/108/

/show/113/

/show/114/

/show/115/

/show/118/

/show/119/

/show/120/

/show/121/

/show/122/

/show/123/

/show/124/

/show/125/

/show/126/

/show/128/

/show/129/

/show/13/

/show/132/

/show/133/

/show/134/

/show/140/

/show/143/

/show/144/

/show/145/

/show/146/

/show/147/

/show/153/

Как их запретить в robots.txt?

Проблема в том, что сейчас эти страницы выдают 404 ошибку. В Я.Вебмастер их насчитывается около 500 штук. Говорят, что они сами исчезают в течении 2-х недель, но у меня они уже месяца так 2 висят. Если я добавлю их в robots.txt, это поспособствует их удалению из базы ящи?

petrof85
На сайте с 19.08.2008
Offline
49
#1

Disallow: /show/100/* (если все url имеющие в начале /show/100/)

Disallow: /show/101/ (только один url /show/101/)

petrof85 добавил 03.09.2010 в 09:05

http://help.yandex.ru/webmaster/?id=996567

kimberlit
На сайте с 13.03.2007
Offline
370
#2
petrof85:
Disallow: /show/100/* (если все url имеющие в начале /show/100/)
Disallow: /show/101/ (только один url /show/101/)

Ты не тупил бы с такими советами. Почитай матчасть сначала.

Aglomerat
На сайте с 02.08.2010
Offline
29
#3

Disallow: /show/*

K
На сайте с 31.01.2001
Offline
737
#4

О, еще один любитель звездочек.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
siv1987
На сайте с 02.04.2009
Offline
427
#5
Aglomerat:
Disallow: /show/*

Так уже все страницы закроешь 🚬

ТС, все у вас правильно, только вместо таких

/show/100/?page=1;sort=cost_1r

/show/100/?page=1;sort=new;desc=0

достаточно будет и так:

/show/100/

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий