Есть у меня один знакомый, который так увлёкся Adsense и его алгоритмами, что создавал чуть ли не свою лабораторию. Писал свои скрипты, которые работали по крону из разных IP с имитацией живого пользователя, с последующими кликами по блокам. В арсенале было несколько машин с англоязычной виндой и работали от разных провайдеров. Всё было засекречено по максимуму. На его сайтах выслеживались боты Adsense и вычислялась статистика своими скриптами.
На базе всего этого, он хотел соорудить сервис по "заработку" на Adsense. И вроде всё ничего, только через три месяца его аккаунт залочили, а провайдеры попёрли с хостов метлой из-за проблем с Гуглом.
Так что Adsense это серьёзная программа и играться с ней в кошки – мышки бесполезно, имхо...
Если есть высокопосещаемый сайт, то ничего делать не надо, кроме как разместить правильно блоки и скоординироваться, … и будет прибыль и будете спать спокойно и получать чеки каждый месяц.
Adsense ведёт основной контроль не только по IP, ещё и по вашему железу на компе и самой винде.
Тот кто скликивает, сам себя сливает Adsens'у.
Там заложены большие деньги на рекламные компании, поэтому не стоит устраивать экстримы ...
AdPeace.com Neznaika.net
I wish only the best ... !
Проверяй ...
видимо не то читаете, или недостаточно знаний ...
Как долго вы на GoDaddy? Есть ли свои сайты на доменах GoDaddy?
Вычисляю не я, а движки на которых имееются скрипты, плагины, определяющие название бота.
В IP нужно разбираться, а то вы забаните целую подсеть, а на них сидят ваши пользователи.
ну, так на то вы и администратор своего сайта что бы следить за ним ...
надо отслеживать неугодных ботов и банить их.
если вы на шаред хостинге и не имеете возможности банить серверно,
баньте с помощью htaccess.
вот примерно такой конструкцией:
RewriteCond %{HTTP_USER_AGENT} MJ12bot [OR]
RewriteCond %{HTTP_USER_AGENT} Java [OR]
RewriteCond %{HTTP_USER_AGENT} NjuiceBot [OR]
RewriteCond %{HTTP_USER_AGENT} Gigabot [OR]
RewriteCond %{HTTP_USER_AGENT} Baiduspider [OR]
RewriteCond %{HTTP_USER_AGENT} JS-Kit [OR]
RewriteCond %{HTTP_USER_AGENT} Voyager [OR]
RewriteCond %{HTTP_USER_AGENT} PostRank [OR]
RewriteCond %{HTTP_USER_AGENT} PycURL [OR]
RewriteCond %{HTTP_USER_AGENT} Aport [OR]
RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR]
RewriteCond %{HTTP_USER_AGENT} DotBot [OR]
RewriteCond %{HTTP_USER_AGENT} SurveyBot [OR]
RewriteCond %{HTTP_USER_AGENT} larbin [OR]
RewriteCond %{HTTP_USER_AGENT} Butterfly [OR]
RewriteCond %{HTTP_USER_AGENT} libwww [OR]
RewriteCond %{HTTP_USER_AGENT} Wget [OR]
RewriteCond %{HTTP_USER_AGENT} SWeb [OR]
RewriteCond %{HTTP_USER_AGENT} LinkExchanger [OR]
RewriteCond %{HTTP_USER_AGENT} Soup [OR]
RewriteCond %{HTTP_USER_AGENT} WordPress [OR]
RewriteCond %{HTTP_USER_AGENT} PHP/ [OR]
RewriteCond %{HTTP_USER_AGENT} spbot [OR]
RewriteCond %{HTTP_USER_AGENT} MLBot [OR]
RewriteCond %{HTTP_USER_AGENT} InternetSeer [OR]
RewriteCond %{HTTP_USER_AGENT} FairShare [OR]
RewriteCond %{HTTP_USER_AGENT} Yeti [OR]
RewriteCond %{HTTP_USER_AGENT} Birubot [OR]
RewriteCond %{HTTP_USER_AGENT} YottosBot [OR]
RewriteCond %{HTTP_USER_AGENT} gold\ crawler [OR]
RewriteCond %{HTTP_USER_AGENT} Linguee [OR]
RewriteCond %{HTTP_USER_AGENT} Ezooms [OR]
RewriteCond %{HTTP_USER_AGENT} lwp-trivial [OR]
RewriteCond %{HTTP_USER_AGENT} Purebot [OR]
RewriteCond %{HTTP_USER_AGENT} User-Agent [OR]
RewriteCond %{HTTP_USER_AGENT} kmSearchBot [OR]
RewriteCond %{HTTP_USER_AGENT} SiteBot [OR]
RewriteCond %{HTTP_USER_AGENT} CamontSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ptd-crawler [OR]
RewriteCond %{HTTP_USER_AGENT} HTTrack [OR]
RewriteCond %{HTTP_USER_AGENT} suggybot [OR]
RewriteCond %{HTTP_USER_AGENT} ttCrawler [OR]
RewriteCond %{HTTP_USER_AGENT} Nutch [OR]
RewriteCond %{HTTP_USER_AGENT} NetCraft [OR]
RewriteCond %{HTTP_USER_AGENT} Majestic-12 [OR]
RewriteCond %{HTTP_USER_AGENT} DoCoMo [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/4\.76\ \[ru\]\ \(X11;\ U;\ SunOS\ 5\.7\ sun4u\) [OR]
RewriteCond %{HTTP_USER_AGENT} Zeus [OR]
RewriteRule ^(.*)$ – [F,L]
это боты которых баню я.
но список может быть другим, ведь одни роботы заходят что бы загрузить только главную для статистики, а другие парсят всё ...
такую работу я стараюсь проводить ежемесячно, ведь одни боты умирают, а другие рождаются.
это так же полезно снизит нагрузку на сервер.
ну, навредить это как бы грубо сказано ...
я, к примеру, пользуюсь такой конструкцией, если ко мне попадает домен с хорошими донорскими бэками, а происхождения контента у меня нет и он ни где не сохранились, а мне надо сохранить ТИЦ или PR.
конечно такой домен, а вернее сайт на этом домене, возможно понизят в выдаче из-за отсутствия бывшего контента но показатели сохранятся.
вот и весь вред ...