а если в функции формируется урл по которому будут поститься данные ?
хотя в принципе ход мыслей ясен. почти готов признать гением :) но возможности применения в промышленных масштабах я у тебя не вижу. + работа под виндой с выполнением стороннего кода - эт огромная потенциальная дыра в безопасности.
мы делали серверное решение под линукс. с производительностью до 100 урлов в минуту. правда так им и не воспользовались , сделали свою ПРчекалку.
ну в принципе правильный алгоритм...
Но ты самое интересное пропустил, как именно передаем данные этому джава скрипту, и как именно получаем данные на выходе с этого джава скрипта ? ;)
да, и выполнять ты его на своей домашней тачке под виндой собираешся?
Сам процесс меня мало интересует, но вот ключевого слова которое позволяет делать такие вещи я пока не увидел :)
з.ы. насчет работы на самом деле полусерьезно, я сейчас ищу новых программеров. Си,С++,визуалС++ и ATL (винда\линукс), + програмирование больших баз данных. но это уже отдельный разговор.
Ок, насчет 15 минут ты наверное пошутил, у меня это заняло 3 часа... сумеешь сделать быстрее - скажу что ты гений и возьму тебя на работу :)
Итак условие, написать скрипт который будет сабмитить в форму урл и получать данные (т.е. кол-во линков и пр) со страницы с результатами. Успехов... :)
Вот тебе ситуация... есть город..., в нем несколько мостов через реку..., машина проезжаю из пункта А в пункт Б переехав через мост сбивает человека. Кто виноват ?
1. Водитель машины
2. Пешеход
3. Строители создавшие мост через который проехала машина.
Ты в этой ситуации пытаешся обивинить именно мост. Типа не было бы моста - машины бы не ездили.
самое простое - ссылки создаваемые с помощью динамически кодируемого джава скрипта. например идем сюда
http://bannedstuff.com/ смотрим на окошко для
"Google PageRank & LP check" и пытаемся написать скрипт который позволит пользоваться этим автоматом.
п.с. скрипт на самом деле написать можно... и довольно легко, при условии что ты профи, но во первых людей которым это под силу - единицы, и во вторых этот кликер будет жрать прилично ресурсов... а значит людей которые смогут это сделать будет уже на несколько порядков меньше.
И это еще очень простой пример, в нашей системе было несколько уровней защиты, которая использовала более сложные комплексные меры, но это уже все комерческая тайна.
В принципе все к этому и будет идти, но пока это не реально.
Если ты сумеешь придумать алгоритм, и систему которая предоставит полный контроль и исключит фрауд как с одной так и с другой стороны, а кроме того будет достаточно поддаваться автоматизации для обслуживании сотен тысяч клиентов - станешь милионнером. :)
Единственный метод борьбы который я видел, это просто покупка места в листинге БЕЗ учета кол-ва кликов... т.е. сколько кликов бы не было - ты платишь просто за кейворд и место...
но на данный момент я видел всего одну СЕ с подобным методом, потратил там довольно приличную сумму и практически ничего не получил. так что РРС при всех его недостатках на данный момент рулит. Но в гугл жаловаться на накрутку надо. иначе со временем ситуация только ухудшиться. (ну или цены за клик будут падать... но пока я этого не наблюдаю).
WebByte, года 4ре назад я был совладельцем и одним из разработчиков спонсорской программы которая платила за показы и клики (тогда это было еще актуально), так что можешь поверить, я подобных кликеров видел ни один десяток, но методы их определения существуют.
??? я показал ??? где ??? будем считать что не допоняли друг друга.
Нет, я как раз пытался сказать что бан прокси серверов бессмысленен и гугл не пойдет этим путем.
Защита делается абсолютно другими методами, и там не имеет значение используется прокси или нет. Правильно созданная защита определяет только одну вещь - произведен клик ботом или живым человеком.
К сожалению ни бан проксей, ни выход на админов серверов не помогут, так как во первых прокси сервера исчисляются десятками тысяч, а во вторых есть официальные прокси сервера через которые ходят тысячи пользователей (аол, прокси сервера в китае, анонимайзеры и т.д.), и есть прокси сервера установленные у пользователей без их ведома.
т.е. даже банальное блокирование прокси серверов практически ничего не даст.
имхо единственный вариант это давить на администрацию поисковиков чтобы они улучшали защиту от накрутчиков, ибо на данный момент, (пока кол-во жалоб на накрутку ничтожно и редко кто требует возврат денег) данная ситуация владельцам поисковиков весьма выгодна. Так что пока это дело не получит широкую огласку ситуация врядли изменится.
крайне не советую 301 редирект делать.
я когда с 302 на 301 сменил ответ - потерял довольно много страниц в гугле. х.з. почему.
Менял сразу на куче доменов и на нескольких абсолютно разных нетворках... результаты везде были одинаково плачевными:
склейки не было, а сами паги исчезали.
С тех пор 302 только использую.
Ну вот вы и подтвердили мое высказывание :))
юзер агент по последней версии должен выглядеть так:
User-Agent: Mozilla/4.0 (compatible; GoogleToolbar 2.0.111-big; Windows XP 5.1)
с ИЕ как видите - ничего общего,
и это значение переодически меняется.
+ еще стоит отметить что многие понятия не имеют о разнице в составлении запросов при конекте через прокси и без оной.
+ некоторые совсем уж ламеры неправильно хедеры закрывают.
+ есть еще некоторые мелкие фишки которые стоит учитывать чтобы имитировать настоящий ИЕ+гуглбар.
в общем я ни одного нормального (абсолютно безбагового) чужого скрипта еще не видел. В лучшем случае они начинали глючить под большой загрузкой.., а про худшие варианты вообще промолчу.