Да не надо этого делать. Надо просто ботов блокировать нормально (и на прямых и на кривых заходах)! А рекламу показывать чистому трафику без ограничений. И будет и cpmv выше и доход больше и площадку не заблокируют.
Но смотрите, здесь - www.robotstxt.org/robotstxt.html - говорится:
Note also that globbing and regular expression are not supported in either the User-agent or Disallow lines. The '*' in the User-agent field is a special value meaning "any robot".
( Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.)
Для кого тогда этот стандарт, если и гугл его будет обходить. И еще:
Если в robots.txt Disallow: /*?* стоит в секции User-agent: *, то он Яндексом не учитывается, а если в секции User-agent: Yandex, то учитывается.
Может быть туплю, но по-моему для гугла это невозможно сделать. Если имелась в виду директива Disallow: /* ?e= *
У меня нет AAAA записи, а в Events видно заходы по ipv6.
Чего то я запутался - вообще, если виртуальный хостинг не поддерживает ipv6, сайты при обращении по нему будут окрываться?
Наверно к нам не выгодно завозить хороший чай в пакетиках.
Помню как-то в Хорватии купил , там вообще-то проблема с чаем, все пьют кофе. Удалось найти только в пакетиках и то с большим трудом. Ткак такого хорошего чая никогда не пил ни раньше , ни с тех пор.