Можно также в robots.txt сделать для User-agent:Yandex запись о Host. Для каждого сайта свой :)
Не следует ожидать ПР.
Следует работать над сайтом дальше. На хороший оригинальный контент вебмастера склонны ссылаться по собственной инициативе.
http://validator.w3.org
Я и смотрю, работает на ура:
http://search.msn.com/results.aspx?q=inurl%3Aprint+site%3Atechnoterra.ru
http://search.yahoo.com/search?p=inurl%3Aprint+site%3Atechnoterra.ru
А, ну раз так, то нет вопросов, пусть посылает.
Для запрета индексации и перехода по ссылкам советую всё же использовать несколько иную конструкцию:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Причём желательно, чтобы получались домены 3го уровня - 4й уровень уж очень громоздко смотрится.
PetroviCH, для каждого сайта (не важно, на каком домене расположенном) у Вас должно хватить контента. Т.е., если по каждому языку у Вас будет не больше 3х страничек, можно ограничиться подкаталогом. Но я рекомендую прислушаться к совету 6666 и набрать необходимое количество контента для отдельных сайтов.
Однозначно не догоняете вот в этом месте
ибо от тИЦ выдача не зависит.
Потом. Вы оцениваете только количество ссылок или смотрите, откуда эти ссылки идут (другими словами, оцениваете их качество)? Опять же, способы получения Вами информации о ссылках тоже могут быть разными; не факт, что Вы получаете ту информацию, какую хотите получить :)
Что именно не понимает?
Простите, это чудо что делает с роботами?
Ох, если бы эти "сервисы" ещё и с текущим PR косячили... :)
shaggy, только сегодня была тема про RSS. Пожалуйста, не ленитесь, найдите её на форуме. Там я давал ссылку на полное описание стандарта RSS 2.0