Как закрыть все страниц для пс кроме главной?

12
A7
На сайте с 15.07.2007
Offline
161
739

Как закрыть все страниц для пс кроме главной?

Внутренних страниц огромное кол-во, но все урлы однотипны!

page_75.htm

page_76.htm

и т д.

Можно как то грамотно составить robots.txt

чтобы все внутренние были закрыты, а главная осталась открытой!

ИМ
На сайте с 04.03.2009
Offline
32
#1
acid777:
Как закрыть все страниц для пс кроме главной?

Внутренних страниц огромное кол-во, но все урлы однотипны!
page_75.htm
page_76.htm
и т д.

Можно как то грамотно составить robots.txt
чтобы все внутренние были закрыты, а главная осталась открытой!

да.

Allow: /index.htm

Disallow: /

27.11.2009. Перебираюсь на ПМЖ в другую страну, поэтому появляюсь очень редко. По всем вопросам пишите sergmak190@yandex.ru
A7
На сайте с 15.07.2007
Offline
161
#2

А вторая строчка не отменяет первую?

ИМ
На сайте с 04.03.2009
Offline
32
#3
acid777:
А вторая строчка не отменяет первую?

нет. http://help.yandex.ru/webmaster/?id=996567

mgarkunov
На сайте с 23.03.2009
Offline
130
#4

Можно поставить на все страницы мета-тег robots, в котором и запретить индексацию.

Affiliate marketing в Рунете (http://affnet.ru)
A7
На сайте с 15.07.2007
Offline
161
#5

Внял! Благодарен!

yanus
На сайте с 21.01.2009
Offline
348
#6
Илья Московский:
да.

Allow: /index.htm
Disallow: /

ну ну... прдеставляю себе реакцию ПС если в индексе _site.ru, а не _site.ru/index.html особенно если ссылки ведут на _site.ru😂

оставьте просто

Disallow: /page*

с таким роботс именно страницы содержащие "page" не попадут в индекс.

K
На сайте с 31.01.2001
Offline
737
#7
Илья Московский:
Allow: /index.htm
Disallow: /

Тогда уж:

Allow: /$

Disallow: /

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
mgarkunov
На сайте с 23.03.2009
Offline
130
#8
yanus:
оставьте просто
Disallow: /page*

Не умеют роботы так читать... надо использовать регулярку

http://help.yandex.ru/webmaster/?id=996567#996572

http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=40360

yanus
На сайте с 21.01.2009
Offline
348
#9
mgarkunov:
Не умеют роботы так читать... надо использовать регулярку
http://help.yandex.ru/webmaster/?id=996567#996572
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=40360

взсто по первой ссылке:

User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам
# начинающимся с '/cgi-bin'

взято по второй ссылке:

Чтобы сопоставлять последовательность символов, используйте звездочку (*).Например, чтобы заблокировать доступ ко всем вложенным каталогам, начинающимся с private, введите строки:
User-agent: Googlebot
Disallow: /lichnoe*/

и в чем я был неправ?

mgarkunov
На сайте с 23.03.2009
Offline
130
#10
yanus:
и в чем я был неправ?
Чтобы задать соответствие конечных символов URL-адреса, используйте символ $. Например, чтобы заблокировать доступ к URL, оканчивающемуся на .xls, используйте следующие строки:

User-agent: Googlebot
Disallow: /*.xls$

Т.е для

acid777:
Внутренних страниц огромное кол-во, но все урлы однотипны!
page_75.htm
page_76.htm
и т д.

User-agent: Googlebot

Disallow: /page_*.htm$

С яндексом лопохнулся, но еще умеют читать так файл robots.txt только msn. Об остальных не слышал.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий