Запрет на индекс страницы

D
На сайте с 25.06.2011
Offline
3
372

Сайт на вордпресс, при добавлении новых статей создаются страницы типа www.site.ru/page/10/ и т.п. соответственно. Т.к. такие страницы не с постоянным контентом и постоянно обновляются, хочу их закрыть от индексации в robots.txt , как это правильно сделать?

типо так:

User-agent: *

Disallow: /page/ Но при таком варианте мы закрывает от индекса папку /page/ , но ведь такой папки нет, т.к. /page/ просто генерируется вордпресс, как быть?

Спасибо за помощь.

KoDmAn
На сайте с 24.09.2009
Offline
42
#1
Dirbiz:
как быть?

Не заморачиваться :) Под /page/ подразумевается любая директория, и, в том числе, виртуальная.

Fr3d
На сайте с 29.05.2008
Offline
86
#2

проверьте

в header

<?

if(preg_match("!page!i",$_SERVER['REQUEST_URI'])){

echo '<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">';

}

?>

Webmoney кредиты - это WMCoin.ru (http://wmcoin.ru)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий