Сработает ли такой robots.txt

Amfitoz
На сайте с 10.11.2006
Offline
76
282

Народ помогите в разрешении задачи, нужно закрыть от индексации сайт, а оставить открытыми буквально 5-10 страниц, закрыл бы папки от индексации но все страницы сгенерированы html файлами, тяжело все вписать disallow, поможет ли такой robots.txt:

User-agent: *

Disallow: /*

Allow: /

Allow: /page1

Allow: /page2

K
На сайте с 31.01.2001
Offline
737
#1

Слишком много ошибок.

http://help.yandex.ru/webmaster/?id=996567

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий