эффективное противодействие накрутке кликов

123 4
M
На сайте с 03.03.2004
Offline
43
#11
Как писал Spam Killer

Если серьёзно, один из выходов в сложившейся ситуации - это перепрофилирование рекламы (или, так сказать, апгрейд аккаунта) с PPC рекламы на PPL

В принципе все к этому и будет идти, но пока это не реально.

Если ты сумеешь придумать алгоритм, и систему которая предоставит полный контроль и исключит фрауд как с одной так и с другой стороны, а кроме того будет достаточно поддаваться автоматизации для обслуживании сотен тысяч клиентов - станешь милионнером. :)

Единственный метод борьбы который я видел, это просто покупка места в листинге БЕЗ учета кол-ва кликов... т.е. сколько кликов бы не было - ты платишь просто за кейворд и место...

но на данный момент я видел всего одну СЕ с подобным методом, потратил там довольно приличную сумму и практически ничего не получил. так что РРС при всех его недостатках на данный момент рулит. Но в гугл жаловаться на накрутку надо. иначе со временем ситуация только ухудшиться. (ну или цены за клик будут падать... но пока я этого не наблюдаю).

Дневник БоГа (http://www.seriousrevenue.com/). Лента SEO форумов (http://www.seriousrevenue.com/scripts/rubot/). Статистика денег (http://www.seriousrevenue.com/scripts/rate/).
M
На сайте с 03.03.2004
Offline
43
#12
Как писал WebByte

Подобные кликеры обычно не заморачиваются эмуляцией действий пользователя, а тупо выгребают ссылки на рекламные объявления и тут же переходят по ним.

Если так уверены в непогрешимости алгоритмов определения - пожалуйста, опишите хоть один. Можно в личку. Я тут же рассею вашу уверенность.

самое простое - ссылки создаваемые с помощью динамически кодируемого джава скрипта. например идем сюда

http://bannedstuff.com/ смотрим на окошко для

"Google PageRank & LP check" и пытаемся написать скрипт который позволит пользоваться этим автоматом.

п.с. скрипт на самом деле написать можно... и довольно легко, при условии что ты профи, но во первых людей которым это под силу - единицы, и во вторых этот кликер будет жрать прилично ресурсов... а значит людей которые смогут это сделать будет уже на несколько порядков меньше.

И это еще очень простой пример, в нашей системе было несколько уровней защиты, которая использовала более сложные комплексные меры, но это уже все комерческая тайна.

WB
На сайте с 21.05.2004
Offline
36
#13

Млин. А чего сложного передать скрипту данные методом POST?

И джаваскрипт тут нафиг не нужен.

Написать Вам ровно за 15 минут рабочий скрипт?

Далее,

людей таких - сотни тысяч. Имя им - веб-программисты.

Ресурсов тоже много не надо...Хватит обычного компьютера с установленным Perl/ PHP/ASP

Ну плюс еще веб-сервер какой-нить.

Ресурсов жрать будет - только траффик.

Но считаем ту же выдачу гугля. Пусть страница весит 50 Кб.

Пусть гигабайт входящего трафика стоит 60 баксов.

И пусть один клик по объявлению стоит 0,05$

Имеем, 1гб/50кб = 20 000 показов объявлений

20 000*0,05 = 1000$

Итак, платя 60 долларов за гигабайт трафику мы можем причинить ущербу на 1000$

Экономия очевидна. И не надо кричать про коммерческую тайну. В Яндексе с Гуглом тоже не дураки работают.

M
На сайте с 15.05.2001
Offline
45
#14
Как писал WebByte


Опоздал. Лично мне известны несколько подобных сервисов.
С одного из них каждый час я вытаскиваю списки из 150-200 прокси серверов. Ну надо мне ;)

150-200 новых анонимных серверов в час

😂

🙅 Не верю !

WB
На сайте с 21.05.2004
Offline
36
#15

Хорошо,

150-200 - это список найденных прокси за последний час.

Часть из них за час успевает уйти в даун от наплыва пользователей, часть не является анонимными. Но список все-таки велик. Поверьте. У меня весь сервис на их использовании построен. Знаю, что говорю...

M
На сайте с 15.05.2001
Offline
45
#16
Как писал WebByte


Давно так не смеялся. Администраторы прокси-серверов могут не догадываться, что их используют как прокси.
Прокси-сервер можно получить, например, используя ошибки в скрипта.

Те кто не догадывается это одна статья (по неосторожности)

а те кто догадывается это совсем другая (преднамеренно) обе из УК.

Понятно что конкретно сейчас этим никто не занимается, но будет и это тоже пронятно. Срок давности по такого рода делам 10 лет. Посему копите факты.

WB
На сайте с 21.05.2004
Offline
36
#17

Какие статьи?

1. Основная масса проксей - не из Рунета. А там наш УК особо не действует.

2. Смотрите пример,

программист пишет скрипт,

который в качестве параметра получает имя файла и открывает его через fopen();

Всё бы хорошо. Но данная функция позволяет получать так же файлы, находящиеся на другом компе.

И злоумышленник, подставив вместо безобидного имени файла readme.txt вполне реальный url, получит прокси-сервер.

В общем, забудьте про уголовную ответственность за ошибки в программах.

M
На сайте с 03.03.2004
Offline
43
#18
Как писал WebByte
Млин. А чего сложного передать скрипту данные методом POST?
И джаваскрипт тут нафиг не нужен.
Написать Вам ровно за 15 минут рабочий скрипт?

Ок, насчет 15 минут ты наверное пошутил, у меня это заняло 3 часа... сумеешь сделать быстрее - скажу что ты гений и возьму тебя на работу :)

Итак условие, написать скрипт который будет сабмитить в форму урл и получать данные (т.е. кол-во линков и пр) со страницы с результатами. Успехов... :)

Как писал magic


Те кто не догадывается это одна статья (по неосторожности)
а те кто догадывается это совсем другая (преднамеренно) обе из УК.

Вот тебе ситуация... есть город..., в нем несколько мостов через реку..., машина проезжаю из пункта А в пункт Б переехав через мост сбивает человека. Кто виноват ?

1. Водитель машины

2. Пешеход

3. Строители создавшие мост через который проехала машина.

Ты в этой ситуации пытаешся обивинить именно мост. Типа не было бы моста - машины бы не ездили.

WB
На сайте с 21.05.2004
Offline
36
#19

Ну вряд ли Вы выполните свое обещание насчет работы, поэтому писать не буду, а ограничусь описанием алгоритма.

Имеем JScript.Encode скрипт, в котором зашифрована неизвестная нам фунция (кстати, писали наши судя по строке

/* Ebites nazdorovie :) */ :D )

Алгоритм.

1. Сохраняем страницу на диск.

2. Передаем ей данные

- время

- ip

- url

3. Сабмитим на другой наш скрипт, который таким образом получает валидные поля поля для POST-запроса к удаленному серверу.

4. Отправляем форму на удаленный сервер, парсим страницу,

получаем нужные данные.

Вот честно - больше часа и тратить бы не пришлось.

Но меркантильность характера не позволяет писать такое for free

:)

зы. PR и BL можно и с Google получить...

M
На сайте с 03.03.2004
Offline
43
#20

ну в принципе правильный алгоритм...

Но ты самое интересное пропустил, как именно передаем данные этому джава скрипту, и как именно получаем данные на выходе с этого джава скрипта ? ;)

да, и выполнять ты его на своей домашней тачке под виндой собираешся?

Сам процесс меня мало интересует, но вот ключевого слова которое позволяет делать такие вещи я пока не увидел :)

з.ы. насчет работы на самом деле полусерьезно, я сейчас ищу новых программеров. Си,С++,визуалС++ и ATL (винда\линукс), + програмирование больших баз данных. но это уже отдельный разговор.

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий