Закрытие индексации страницы

NM
На сайте с 28.08.2009
Offline
13
699

Всем по привету. Подскажите, каким образом можно закрыть страницу от индексации Яшей через robots.txt?

M
На сайте с 30.12.2007
Offline
126
#1

User-agent: Yandex

Allow: /archive

Disallow: /

# разрешает все, что содержит '/archive', остальное запрещено

User-agent: Yandex

Allow: /obsolete/private/*.html$ # разрешает html файлы

# по пути '/obsolete/private/...'

Disallow: /*.php$ # запрещает все '*.php' на данном сайте

Disallow: /*/private/ # запрещает все подпути содержащие

# '/private/', но Allow выше отменяет

# часть запрета

Disallow: /*/old/*.zip$ # запрещает все '*.zip' файлы, содержащие

# в пути '/old/'

User-agent: Yandex

Disallow: /add.php?*user=

# запрещает все скрипты 'add.php?' с параметром 'user'

Источник

Вот только с разделом мне кажется вы ошиблись...

bliiiiiiiiina
На сайте с 13.09.2009
Offline
202
#2
NetMaster555:
Всем по привету. Подскажите, каким образом можно закрыть страницу от индексации Яшей через robots.txt?

User-Agent: Yandex

Disallow: link.html

вроде так

4arger
На сайте с 17.12.2008
Offline
95
#3
malihs:

Вот только с разделом мне кажется вы ошиблись...

почему ошибся? закрывает страницу, на которой или редирект, или фрейм...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий