HruPifPaf

Рейтинг
175
Регистрация
30.05.2006

Гугль накладывает на такие сайты фильтр. В результатах поиска они остаются, но на попытку зайти на них гугль предупреждает что это небезопасно.

А насчет конкурентов смешно - подобные взломы осуществляют Web черви автоматически через дырки в php или через уязвимости клиента.

Сомнительно что 4-й степени. Показывали как он сидит в кафе и курит сигарету.

Вроде у меня не переносили.. тьфу тьфу...

Глупости, если бы гугль делал бы разницу в том, где расположен сайт или на кого зарегистрирован, его бы давно засудили.

Важно только качество трафика - за китайца заплатят в 100 раз меньше, чем за европейца или американца, кликнувшего на одну и ту же рекламу.

Выбор программной платформе в первую очередь основывается на требованиях бизнеса.

В начале необходимо сформулировать требования, которым должна удовлетворять ваша СМС, и, исходя из этих требований, выбирать из нескольких вариантов. А критерием выбора будет наиболее совпадение этим требованиям.

А стоит платить или нет за СМС это как один из дополнительных параметров в одном из критериев, и не более того.

Но при таком подходе как я описал, почти всегда оказывается что бесплатное ПО сильно проигрывает своим платным аналогам :)

У меня выплаты тоже 1500-2000 в месяц. Ни разу за несколько лет небыло писем о некачественных кликах. Хотя такие клики ведь будут всегда! по статистике до 10% кликов случайные! (куча исследований было).

Вопрос в другом - некачественные клики по логике должны определять сразу, а пост-фактум? Какие такие дополнительные данные появляются чтобы позже можно было определить некачественный клик?

Как я понимаю признаки плохих кликов

1. Множественные клики с одного IP

2. Клики администраторов сайта

3. Плохие браузеры, юзер-агенты и т .п.

4. Плохие страны, языки и т.п. Например клики в браузерах, не принимающих русский язык (по accept-language).

5. Клики через анонимайзеры, анонимные прокси, тор сервисы и прочую муть.

Это все можно определить в момент первого клика и не засчитать его, постфактуп дополнительно не обработать такую информацию.

Далее поведенческий анализ. всегда известно статистическое распределение между моментом просмотра страницы и кликом на рекламу.

Предположим что при 1000 кликов, отклонения от статистически возможного на 20%.

Тогда можно статистически считать что 20% кликов были плохими. Именно 20% от всех кликов, а не каких то определенных кликов. Потому что это статистические отклонения.

Вполне возможно что этими данными и оперирует бегун.

не факт что это зеркала. Может быть даже обратный прокси стоит.

Проверить просто - зайдите на скрытую страницу через их сервер, а потом провертье в логах, нет ли запросов к этой странице на вашем сервере.

А вот что поисковик подменил страницы это на редкость странно.

Unlock:
dsw, Поэтому не факт что не переписывая все с нуля, можно было избежать register globals=on. .

register globals=on это не функция языка PHP! Это параметр нужен только для совместимости скриптов написанных под старые версии языка (3.x). Программисты которые используют register globals просто не умеют писать правильно :)

webprofy.biz:
register globals=off - дополнительная защита
и пользоваться ей легко, можно прописать прямо в директории скрипта в файле .htaccess

Мое мнение - зачем пренебрегать дополнительными возможностями???

Раз на то уж пошло, использование .htaccess (allow override all) тоже проблема безопасности. А также и производительности, особенно когда много вложенных каталогов.

Не забывайте, опция Register_Global осталась в PHP только для совместимости со старыми версиями PHP!

Также хороший программист НИКОГДА не будет глобально определять переменные.

Так что в любых ситуациях Register_Global это плохо. Если скрипт не раобтает, значит его писал плохой программист.

Всего: 853