webrock

webrock
Рейтинг
261
Регистрация
05.04.2010
Должность
Research
Интересы
Английский, санскрит, PHP ...
У Бога нет религии.

Есть у меня один знакомый, который так увлёкся Adsense и его алгоритмами, что создавал чуть ли не свою лабораторию. Писал свои скрипты, которые работали по крону из разных IP с имитацией живого пользователя, с последующими кликами по блокам. В арсенале было несколько машин с англоязычной виндой и работали от разных провайдеров. Всё было засекречено по максимуму. На его сайтах выслеживались боты Adsense и вычислялась статистика своими скриптами.

На базе всего этого, он хотел соорудить сервис по "заработку" на Adsense. И вроде всё ничего, только через три месяца его аккаунт залочили, а провайдеры попёрли с хостов метлой из-за проблем с Гуглом.

Так что Adsense это серьёзная программа и играться с ней в кошки – мышки бесполезно, имхо...

Если есть высокопосещаемый сайт, то ничего делать не надо, кроме как разместить правильно блоки и скоординироваться, … и будет прибыль и будете спать спокойно и получать чеки каждый месяц.

Cheko:
Значит ли это, что надо блокировать все IP из СНГ? Вы так делаете на своих проектах?

Adsense ведёт основной контроль не только по IP, ещё и по вашему железу на компе и самой винде.

Тот кто скликивает, сам себя сливает Adsens'у.

Там заложены большие деньги на рекламные компании, поэтому не стоит устраивать экстримы ...

AdPeace.com
Neznaika.net

I wish only the best ... !

Jurgen Wolf:
но зато много читаю… и хуизом не брезгую.

видимо не то читаете, или недостаточно знаний ...

Jurgen Wolf:

Другое дело те, кто пользует дядю для сайтов

Как долго вы на GoDaddy? Есть ли свои сайты на доменах GoDaddy?

ksushan:
спасибо вам большое за ответ!

извините, я в технических вопросах не большой специалист, но подскажите, откуда вы берете имена этих роботов? CamontSpider, ptd-crawler, HTTrack, suggybot, ttCrawler

где мне их посмотреть, чтобы забанить?

и второй вопрос: вы баните по имени, но, насколько я понимаю, можно банить и по IP
Что лучше? У моих роботов IP все разные. Имена, как я подохреваю, тоже будут разными. Так может их по IP проще банить?

Разъясните, плиз, ламеру)

Вычисляю не я, а движки на которых имееются скрипты, плагины, определяющие название бота.

В IP нужно разбираться, а то вы забаните целую подсеть, а на них сидят ваши пользователи.

ksushan:
на 45% состоит из заходов видимо робота!!

ну, так на то вы и администратор своего сайта что бы следить за ним ...

надо отслеживать неугодных ботов и банить их.

если вы на шаред хостинге и не имеете возможности банить серверно,

баньте с помощью htaccess.

вот примерно такой конструкцией:

RewriteCond %{HTTP_USER_AGENT} MJ12bot [OR]

RewriteCond %{HTTP_USER_AGENT} Java [OR]

RewriteCond %{HTTP_USER_AGENT} NjuiceBot [OR]

RewriteCond %{HTTP_USER_AGENT} Gigabot [OR]

RewriteCond %{HTTP_USER_AGENT} Baiduspider [OR]

RewriteCond %{HTTP_USER_AGENT} JS-Kit [OR]

RewriteCond %{HTTP_USER_AGENT} Voyager [OR]

RewriteCond %{HTTP_USER_AGENT} PostRank [OR]

RewriteCond %{HTTP_USER_AGENT} PycURL [OR]

RewriteCond %{HTTP_USER_AGENT} Aport [OR]

RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR]

RewriteCond %{HTTP_USER_AGENT} DotBot [OR]

RewriteCond %{HTTP_USER_AGENT} SurveyBot [OR]

RewriteCond %{HTTP_USER_AGENT} larbin [OR]

RewriteCond %{HTTP_USER_AGENT} Butterfly [OR]

RewriteCond %{HTTP_USER_AGENT} libwww [OR]

RewriteCond %{HTTP_USER_AGENT} Wget [OR]

RewriteCond %{HTTP_USER_AGENT} SWeb [OR]

RewriteCond %{HTTP_USER_AGENT} LinkExchanger [OR]

RewriteCond %{HTTP_USER_AGENT} Soup [OR]

RewriteCond %{HTTP_USER_AGENT} WordPress [OR]

RewriteCond %{HTTP_USER_AGENT} PHP/ [OR]

RewriteCond %{HTTP_USER_AGENT} spbot [OR]

RewriteCond %{HTTP_USER_AGENT} MLBot [OR]

RewriteCond %{HTTP_USER_AGENT} InternetSeer [OR]

RewriteCond %{HTTP_USER_AGENT} FairShare [OR]

RewriteCond %{HTTP_USER_AGENT} Yeti [OR]

RewriteCond %{HTTP_USER_AGENT} Birubot [OR]

RewriteCond %{HTTP_USER_AGENT} YottosBot [OR]

RewriteCond %{HTTP_USER_AGENT} gold\ crawler [OR]

RewriteCond %{HTTP_USER_AGENT} Linguee [OR]

RewriteCond %{HTTP_USER_AGENT} Ezooms [OR]

RewriteCond %{HTTP_USER_AGENT} lwp-trivial [OR]

RewriteCond %{HTTP_USER_AGENT} Purebot [OR]

RewriteCond %{HTTP_USER_AGENT} User-Agent [OR]

RewriteCond %{HTTP_USER_AGENT} kmSearchBot [OR]

RewriteCond %{HTTP_USER_AGENT} SiteBot [OR]

RewriteCond %{HTTP_USER_AGENT} CamontSpider [OR]

RewriteCond %{HTTP_USER_AGENT} ptd-crawler [OR]

RewriteCond %{HTTP_USER_AGENT} HTTrack [OR]

RewriteCond %{HTTP_USER_AGENT} suggybot [OR]

RewriteCond %{HTTP_USER_AGENT} ttCrawler [OR]

RewriteCond %{HTTP_USER_AGENT} Nutch [OR]

RewriteCond %{HTTP_USER_AGENT} NetCraft [OR]

RewriteCond %{HTTP_USER_AGENT} Majestic-12 [OR]

RewriteCond %{HTTP_USER_AGENT} DoCoMo [OR]

RewriteCond %{HTTP_USER_AGENT} ^Mozilla/4\.76\ \[ru\]\ \(X11;\ U;\ SunOS\ 5\.7\ sun4u\) [OR]

RewriteCond %{HTTP_USER_AGENT} Zeus [OR]

RewriteRule ^(.*)$ – [F,L]

это боты которых баню я.

но список может быть другим, ведь одни роботы заходят что бы загрузить только главную для статистики, а другие парсят всё ...

такую работу я стараюсь проводить ежемесячно, ведь одни боты умирают, а другие рождаются.

это так же полезно снизит нагрузку на сервер.

ferona:
может ли он навредить?)

ну, навредить это как бы грубо сказано ...

я, к примеру, пользуюсь такой конструкцией, если ко мне попадает домен с хорошими донорскими бэками, а происхождения контента у меня нет и он ни где не сохранились, а мне надо сохранить ТИЦ или PR.

конечно такой домен, а вернее сайт на этом домене, возможно понизят в выдаче из-за отсутствия бывшего контента но показатели сохранятся.

вот и весь вред ...

Всего: 4972