Смотрите в сторону партнеров крупных регистраторов. Например Оптимизатор ру
Да не надо этого делать. Надо просто ботов блокировать нормально (и на прямых и на кривых заходах)! А рекламу показывать чистому трафику без ограничений. И будет и cpmv выше и доход больше и площадку не заблокируют.
Но смотрите, здесь - www.robotstxt.org/robotstxt.html - говорится:
Note also that globbing and regular expression are not supported in either the User-agent or Disallow lines. The '*' in the User-agent field is a special value meaning "any robot".
( Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.)
Для кого тогда этот стандарт, если и гугл его будет обходить. И еще:
Если в robots.txt Disallow: /*?* стоит в секции User-agent: *, то он Яндексом не учитывается, а если в секции User-agent: Yandex, то учитывается.
Может быть туплю, но по-моему для гугла это невозможно сделать. Если имелась в виду директива Disallow: /* ?e= *