Гугль накладывает на такие сайты фильтр. В результатах поиска они остаются, но на попытку зайти на них гугль предупреждает что это небезопасно.
А насчет конкурентов смешно - подобные взломы осуществляют Web черви автоматически через дырки в php или через уязвимости клиента.
Сомнительно что 4-й степени. Показывали как он сидит в кафе и курит сигарету.
Вроде у меня не переносили.. тьфу тьфу...
Глупости, если бы гугль делал бы разницу в том, где расположен сайт или на кого зарегистрирован, его бы давно засудили.
Важно только качество трафика - за китайца заплатят в 100 раз меньше, чем за европейца или американца, кликнувшего на одну и ту же рекламу.
Выбор программной платформе в первую очередь основывается на требованиях бизнеса.
В начале необходимо сформулировать требования, которым должна удовлетворять ваша СМС, и, исходя из этих требований, выбирать из нескольких вариантов. А критерием выбора будет наиболее совпадение этим требованиям.
А стоит платить или нет за СМС это как один из дополнительных параметров в одном из критериев, и не более того.
Но при таком подходе как я описал, почти всегда оказывается что бесплатное ПО сильно проигрывает своим платным аналогам :)
У меня выплаты тоже 1500-2000 в месяц. Ни разу за несколько лет небыло писем о некачественных кликах. Хотя такие клики ведь будут всегда! по статистике до 10% кликов случайные! (куча исследований было).
Вопрос в другом - некачественные клики по логике должны определять сразу, а пост-фактум? Какие такие дополнительные данные появляются чтобы позже можно было определить некачественный клик?
Как я понимаю признаки плохих кликов
1. Множественные клики с одного IP
2. Клики администраторов сайта
3. Плохие браузеры, юзер-агенты и т .п.
4. Плохие страны, языки и т.п. Например клики в браузерах, не принимающих русский язык (по accept-language).
5. Клики через анонимайзеры, анонимные прокси, тор сервисы и прочую муть.
Это все можно определить в момент первого клика и не засчитать его, постфактуп дополнительно не обработать такую информацию.
Далее поведенческий анализ. всегда известно статистическое распределение между моментом просмотра страницы и кликом на рекламу.
Предположим что при 1000 кликов, отклонения от статистически возможного на 20%.
Тогда можно статистически считать что 20% кликов были плохими. Именно 20% от всех кликов, а не каких то определенных кликов. Потому что это статистические отклонения.
Вполне возможно что этими данными и оперирует бегун.
не факт что это зеркала. Может быть даже обратный прокси стоит.
Проверить просто - зайдите на скрытую страницу через их сервер, а потом провертье в логах, нет ли запросов к этой странице на вашем сервере.
А вот что поисковик подменил страницы это на редкость странно.
register globals=on это не функция языка PHP! Это параметр нужен только для совместимости скриптов написанных под старые версии языка (3.x). Программисты которые используют register globals просто не умеют писать правильно :)
Раз на то уж пошло, использование .htaccess (allow override all) тоже проблема безопасности. А также и производительности, особенно когда много вложенных каталогов.
Не забывайте, опция Register_Global осталась в PHP только для совместимости со старыми версиями PHP!
Также хороший программист НИКОГДА не будет глобально определять переменные.
Так что в любых ситуациях Register_Global это плохо. Если скрипт не раобтает, значит его писал плохой программист.