Лучше "трастовый" контент.
Следуйте рекомендации из письма службы поддержки. Другого тут и не посоветуешь.
Директиву Crawl-delay юзайте. Она-то как раз и призвана усмирять чересчур активных роботов.
Значит роботс некорректно составлен.
Робот Байду поддерживает стандарт описания robots.txt, в принципе как и все остальные приличные роботы - http://www.baidu.com/search/robots.html
MR_PR, что именно я написал не правильно?
Уже разобрались для чего нужен тИЦ?
Параметр surl в адресной строке.
User-Agent: Baiduspider
Disallow: /
Настраиваете общие параметры поиска и сохраняете их. Сохраненные параметры будут применены ко всем операциям поиска.
http://search.live.com/settings.aspx
По большей части тому кто не барыжит ссылками.