and2005

and2005
Рейтинг
164
Регистрация
21.05.2005
Должность
scolar
alaev #:
Таких ботов можешь выкидывать в Яндекс с поисковым запросом, на который яшка будет лепить смарткапчу 😁
Чуть по-подробнее не смогли пояснить?
И переходы по ссылкам метрика еще не все показывает. LI  показывает заметно больше.
VladRost :
В связи с кидаловом с ценой от reghouse.ru стал актуальным вопрос - где лучше держать домены.


Смотрите в сторону партнеров крупных регистраторов. Например Оптимизатор ру

TheVS #:
Нынешняя "оплата за показы" не что иное, как размазанная по времени оплата за клики. CPMV это производная CTR и дороговизны тематики объявлений, поделённая на достаточно абстрактный показатель видимости, которым можно манипулировать как угодно.
Никогда не сталкивались, что CPMV резко меняется? Несколько месяцев один уровень, потом сразу другой с отличием в полтора или два раза.
TheVS #:
CPMV это производная величина, в ней нет никакого смысла.
Думаю, не совсем так. Какой-то показатель меняется в зависимости от "качества сайта". Скорее всего это как раз CPMV
KeicH2O #:
получается РСЯ так и не распознает ботовые клики, и анифрод не работает. Банят по высокому CTR. Если бы работал антифрод, то просто было бы списание кликов к концу дня. 30 лет в рекламе компания, а банит по CTR, прото Lol
Вряд ли только по CTR. Они же еще видят, были покупки, или нет. А если сложить эти два показателя,  -  да, уже будет повод.
Artem189 #:

Да не надо этого делать. Надо просто ботов блокировать нормально (и на прямых и на кривых заходах)! А рекламу показывать чистому трафику без ограничений. И будет и cpmv выше и доход больше и площадку не заблокируют.

Такой скрипт ведь не у всех есть. Может поделитесь?
poohinator #:
Попробуйте не показывать рекламу для прямых заходов
А если не WordPress, это как можно сделать?
SeVlad #:
Для всех одинаково

Но смотрите, здесь - www.robotstxt.org/robotstxt.html - говорится:

Note also that globbing and regular expression are not supported in either the User-agent or Disallow lines. The '*' in the User-agent field is a special value meaning "any robot".

( Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.)

Для кого тогда этот стандарт, если и гугл его будет обходить. И еще:

Если в robots.txt    Disallow:  /*?*  стоит в секции User-agent: *, то он Яндексом не учитывается, а если в секции  User-agent: Yandex,   то учитывается.

SeVlad #:
Дополнительно можно закрыть в роботс "?e=".

Может быть туплю, но по-моему для гугла это невозможно сделать.  Если имелась в виду  директива Disallow: /* ?e=

Всего: 368