в общем по топику походу нет решения через robots.txt
если честно я верю только в ссылки и ПР... сайтмапы скока пробовал, но особой помощи от них не замечал.
потому что сайт большой(~100k страниц), я думал будет примерно равномерно кушать, а он тока 10% из заиндексированых берет которые по идее должны основной траф давать... вот и хотел временно закрыть, но если сделать Disalow - жаль что выкинет что уже внутри...
а есть какоето правило типа "временно не индехировать" но что бы не выкидывал.
Из провереного опыта желательно.