Вопрос по robots.txt

MS
На сайте с 08.02.2009
Offline
89
415

Подскажите пожалуйста как настроить robots.txt таким образом чтобы:

Закрыть от индексации все страницы сайта но кроме главной в таком виде http://site.ru/ и кроме внутренних например этих:

site.ru/o-nas

site.ru/uslugi

site.ru/kontakty

Насколько я понял из хэлпа яндекса, то нужно сделать такой robots

User-agent: Yandex

Allow: /o-nas

Allow: /uslugi

Allow: /kontakty

Disallow: /

Host: site.ru

Но при этом я не уверен, что будет индексироваться главная в таком виде http://site.ru/

Или всё правильно и главная будет тоже индексироваться + что указано в Allow: ?

footballstar
На сайте с 20.07.2010
Offline
94
#1

Disallow: /

Allow: /$

L
На сайте с 30.10.2015
Offline
34
#2

MegaSEOkg, сделав Disallow: / полностью запретишь индексацию сайта

...
RI
На сайте с 17.09.2015
Offline
15
#3
levchernenko:
MegaSEOkg, сделав Disallow: / полностью запретишь индексацию сайта

Кроме тех,что Allow

MS
На сайте с 08.02.2009
Offline
89
#4

Так я толком ничего и не понял, если Disallow: / в любом случае полностью закроет весь сайт, то как мне тогда всё таки выйти из ситуации и добиться чтобы индексировалась только главная + 10 внутренних которые мне нужны.

Если не сложно, напишите пожалуйста, конкретно что мне нужно указать в robots для поставленной задачи.

Если так не правильно:

User-agent: Yandex

Allow: /o-nas

Allow: /uslugi

Allow: /kontakty

Disallow: /

Host: site.ru

То как правильно?

Уж очень надо на одном из сайтов, сейчас есть огромное количество страниц, и на части из них уже переписан контент, а на 500 с лишним ещё будет переписываться.

Найти список всех которые желательно закрыть - технически пока не возможно.

Проще открывать разрешение на индекс для тех страниц которые можно и нужно кормить Яндексу.

Всем большое спасибо.

IPXI
На сайте с 04.11.2015
Offline
126
#5

MegaSEOkg,

всё верно вы написали.

User-agent: Yandex

Allow: /cgi-bin

Disallow: /

# запрещает скачивать все, кроме страниц

# начинающихся с '/cgi-bin'

читайте здесь https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий