- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если серьёзно, один из выходов в сложившейся ситуации - это перепрофилирование рекламы (или, так сказать, апгрейд аккаунта) с PPC рекламы на PPL
В принципе все к этому и будет идти, но пока это не реально.
Если ты сумеешь придумать алгоритм, и систему которая предоставит полный контроль и исключит фрауд как с одной так и с другой стороны, а кроме того будет достаточно поддаваться автоматизации для обслуживании сотен тысяч клиентов - станешь милионнером. :)
Единственный метод борьбы который я видел, это просто покупка места в листинге БЕЗ учета кол-ва кликов... т.е. сколько кликов бы не было - ты платишь просто за кейворд и место...
но на данный момент я видел всего одну СЕ с подобным методом, потратил там довольно приличную сумму и практически ничего не получил. так что РРС при всех его недостатках на данный момент рулит. Но в гугл жаловаться на накрутку надо. иначе со временем ситуация только ухудшиться. (ну или цены за клик будут падать... но пока я этого не наблюдаю).
Подобные кликеры обычно не заморачиваются эмуляцией действий пользователя, а тупо выгребают ссылки на рекламные объявления и тут же переходят по ним.
Если так уверены в непогрешимости алгоритмов определения - пожалуйста, опишите хоть один. Можно в личку. Я тут же рассею вашу уверенность.
самое простое - ссылки создаваемые с помощью динамически кодируемого джава скрипта. например идем сюда
http://bannedstuff.com/ смотрим на окошко для
"Google PageRank & LP check" и пытаемся написать скрипт который позволит пользоваться этим автоматом.
п.с. скрипт на самом деле написать можно... и довольно легко, при условии что ты профи, но во первых людей которым это под силу - единицы, и во вторых этот кликер будет жрать прилично ресурсов... а значит людей которые смогут это сделать будет уже на несколько порядков меньше.
И это еще очень простой пример, в нашей системе было несколько уровней защиты, которая использовала более сложные комплексные меры, но это уже все комерческая тайна.
Млин. А чего сложного передать скрипту данные методом POST?
И джаваскрипт тут нафиг не нужен.
Написать Вам ровно за 15 минут рабочий скрипт?
Далее,
людей таких - сотни тысяч. Имя им - веб-программисты.
Ресурсов тоже много не надо...Хватит обычного компьютера с установленным Perl/ PHP/ASP
Ну плюс еще веб-сервер какой-нить.
Ресурсов жрать будет - только траффик.
Но считаем ту же выдачу гугля. Пусть страница весит 50 Кб.
Пусть гигабайт входящего трафика стоит 60 баксов.
И пусть один клик по объявлению стоит 0,05$
Имеем, 1гб/50кб = 20 000 показов объявлений
20 000*0,05 = 1000$
Итак, платя 60 долларов за гигабайт трафику мы можем причинить ущербу на 1000$
Экономия очевидна. И не надо кричать про коммерческую тайну. В Яндексе с Гуглом тоже не дураки работают.
Опоздал. Лично мне известны несколько подобных сервисов.
С одного из них каждый час я вытаскиваю списки из 150-200 прокси серверов. Ну надо мне ;)
150-200 новых анонимных серверов в час
😂
🙅 Не верю !
Хорошо,
150-200 - это список найденных прокси за последний час.
Часть из них за час успевает уйти в даун от наплыва пользователей, часть не является анонимными. Но список все-таки велик. Поверьте. У меня весь сервис на их использовании построен. Знаю, что говорю...
Давно так не смеялся. Администраторы прокси-серверов могут не догадываться, что их используют как прокси.
Прокси-сервер можно получить, например, используя ошибки в скрипта.
Те кто не догадывается это одна статья (по неосторожности)
а те кто догадывается это совсем другая (преднамеренно) обе из УК.
Понятно что конкретно сейчас этим никто не занимается, но будет и это тоже пронятно. Срок давности по такого рода делам 10 лет. Посему копите факты.
Какие статьи?
1. Основная масса проксей - не из Рунета. А там наш УК особо не действует.
2. Смотрите пример,
программист пишет скрипт,
который в качестве параметра получает имя файла и открывает его через fopen();
Всё бы хорошо. Но данная функция позволяет получать так же файлы, находящиеся на другом компе.
И злоумышленник, подставив вместо безобидного имени файла readme.txt вполне реальный url, получит прокси-сервер.
В общем, забудьте про уголовную ответственность за ошибки в программах.
Млин. А чего сложного передать скрипту данные методом POST?
И джаваскрипт тут нафиг не нужен.
Написать Вам ровно за 15 минут рабочий скрипт?
Ок, насчет 15 минут ты наверное пошутил, у меня это заняло 3 часа... сумеешь сделать быстрее - скажу что ты гений и возьму тебя на работу :)
Итак условие, написать скрипт который будет сабмитить в форму урл и получать данные (т.е. кол-во линков и пр) со страницы с результатами. Успехов... :)
Те кто не догадывается это одна статья (по неосторожности)
а те кто догадывается это совсем другая (преднамеренно) обе из УК.
Вот тебе ситуация... есть город..., в нем несколько мостов через реку..., машина проезжаю из пункта А в пункт Б переехав через мост сбивает человека. Кто виноват ?
1. Водитель машины
2. Пешеход
3. Строители создавшие мост через который проехала машина.
Ты в этой ситуации пытаешся обивинить именно мост. Типа не было бы моста - машины бы не ездили.
Ну вряд ли Вы выполните свое обещание насчет работы, поэтому писать не буду, а ограничусь описанием алгоритма.
Имеем JScript.Encode скрипт, в котором зашифрована неизвестная нам фунция (кстати, писали наши судя по строке
/* Ebites nazdorovie :) */ :D )
Алгоритм.
1. Сохраняем страницу на диск.
2. Передаем ей данные
- время
- ip
- url
3. Сабмитим на другой наш скрипт, который таким образом получает валидные поля поля для POST-запроса к удаленному серверу.
4. Отправляем форму на удаленный сервер, парсим страницу,
получаем нужные данные.
Вот честно - больше часа и тратить бы не пришлось.
Но меркантильность характера не позволяет писать такое for free
:)
зы. PR и BL можно и с Google получить...
ну в принципе правильный алгоритм...
Но ты самое интересное пропустил, как именно передаем данные этому джава скрипту, и как именно получаем данные на выходе с этого джава скрипта ? ;)
да, и выполнять ты его на своей домашней тачке под виндой собираешся?
Сам процесс меня мало интересует, но вот ключевого слова которое позволяет делать такие вещи я пока не увидел :)
з.ы. насчет работы на самом деле полусерьезно, я сейчас ищу новых программеров. Си,С++,визуалС++ и ATL (винда\линукс), + програмирование больших баз данных. но это уже отдельный разговор.