подскажи по robots.txt

[Удален]
343

Задача:

Запретить индексирование поисковикам Яху, msn и гугл.

Также запретить индексировать для всех поисковиков страницу для печати.

User-Agent: *

Disallow: /*?print=true

User-Agent: Googlebot

Disallow: /

User-Agent: msnbot

Disallow: /

User-Agent: Slurp

Disallow: /

Host: сайт.ru

Так правильно? или я где ошибся?

kimberlit
На сайте с 13.03.2007
Offline
370
#1

Пустая строка нужна между секциями и зачем Host для Slurp?

[Удален]
#2

host - цель была его общим сделать для всех поисковиков

не врубился, между какими секциями?

Sнэйк
На сайте с 26.09.2007
Offline
89
#3

Проверьте тут: http://webmaster.yandex.ru/robots.xml и сделайте по аналогии для других ПС. Все они обрабатывают robots.txt по одному принципу.

Не судите строго. (http://www.seo4up.ru/) Я только учусь ... SeoPult (http://seopult.ru/ref.php?ref=d6e69150f0f5b26f) Система купли/продажи ссылок (http://www.sape.ru/r.dVfaRuHpOw.php) |Система купли/продажи мест под статьи (http://seozavr.ru/index.php?id=1910) |13 центов за клик (http://clickcashmoney.com/index.htm?wm=93478)
[Удален]
#4
iia:
не врубился, между какими секциями?

Между указаниями для разных ПС. Хост - яшкина директива, но можно писать её для всех, только она должна относиться к секции "для всех", то есть стоять после Disallow: /*?print=true

[Удален]
#5

Sнэйк, Psycho, kimberlit, спасибо

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий