А с этого сайта бесполезно тащить PR в промышленных масштабах. Я тащу его с серверов Гугла. Бэклинкс оттуда же.
Чужой код я сначала декодировал и убедился, что все чисто в плане безопасности. А то, что под виндой - дык мне тут удобнее отлаживать. А работает всё, ессесн, под Линуксом в несколько потоков.
тИЦ упал. Позиции в основном тоже. Откат даже там, где несколько месяцев держались на одном месте. Вкупе с прошлонедельным падением в Гугле потихоньку зреет писец.
а так и передаем.
init-скрипт формирует страницу с кодом, которая редиректится на второй скрипт... Ничего сложного.
makevalid.php -> POST -> getpr.php -> POST -> Remote URL
А мой комп прошу не трогать. Веб-сервер на нем стоит, для этих целей хватит..
Ну вряд ли Вы выполните свое обещание насчет работы, поэтому писать не буду, а ограничусь описанием алгоритма.
Имеем JScript.Encode скрипт, в котором зашифрована неизвестная нам фунция (кстати, писали наши судя по строке
/* Ebites nazdorovie :) */ :D )
Алгоритм.
1. Сохраняем страницу на диск.
2. Передаем ей данные
- время
- ip
- url
3. Сабмитим на другой наш скрипт, который таким образом получает валидные поля поля для POST-запроса к удаленному серверу.
4. Отправляем форму на удаленный сервер, парсим страницу,
получаем нужные данные.
Вот честно - больше часа и тратить бы не пришлось.
Но меркантильность характера не позволяет писать такое for free
:)
зы. PR и BL можно и с Google получить...
Ага. Есть у меня подопечный. Решил сам продвигать сайт, жалко отстегивать лишнюю копеечку. Просил совета о подготовке к индексированию.. Я ему на пальцах объяснил, что надо делать. А про то, что не надо, упомянул вскользь.
Вчера захожу на сайт. Жму СTRL+A и вижу кучу скрытого текста.
Жаль не конкурент.. Люблю такие вещи находить у сайтов, которые выше моих в серпе.
Какие статьи?
1. Основная масса проксей - не из Рунета. А там наш УК особо не действует.
2. Смотрите пример,
программист пишет скрипт,
который в качестве параметра получает имя файла и открывает его через fopen();
Всё бы хорошо. Но данная функция позволяет получать так же файлы, находящиеся на другом компе.
И злоумышленник, подставив вместо безобидного имени файла readme.txt вполне реальный url, получит прокси-сервер.
В общем, забудьте про уголовную ответственность за ошибки в программах.
Хорошо,
150-200 - это список найденных прокси за последний час.
Часть из них за час успевает уйти в даун от наплыва пользователей, часть не является анонимными. Но список все-таки велик. Поверьте. У меня весь сервис на их использовании построен. Знаю, что говорю...
Млин. А чего сложного передать скрипту данные методом POST?
И джаваскрипт тут нафиг не нужен.
Написать Вам ровно за 15 минут рабочий скрипт?
Далее,
людей таких - сотни тысяч. Имя им - веб-программисты.
Ресурсов тоже много не надо...Хватит обычного компьютера с установленным Perl/ PHP/ASP
Ну плюс еще веб-сервер какой-нить.
Ресурсов жрать будет - только траффик.
Но считаем ту же выдачу гугля. Пусть страница весит 50 Кб.
Пусть гигабайт входящего трафика стоит 60 баксов.
И пусть один клик по объявлению стоит 0,05$
Имеем, 1гб/50кб = 20 000 показов объявлений
20 000*0,05 = 1000$
Итак, платя 60 долларов за гигабайт трафику мы можем причинить ущербу на 1000$
Экономия очевидна. И не надо кричать про коммерческую тайну. В Яндексе с Гуглом тоже не дураки работают.
Подобные кликеры обычно не заморачиваются эмуляцией действий пользователя, а тупо выгребают ссылки на рекламные объявления и тут же переходят по ним.
Если так уверены в непогрешимости алгоритмов определения - пожалуйста, опишите хоть один. Можно в личку. Я тут же рассею вашу уверенность.
И поэтому их никто не юзает для этих целей.
Давно так не смеялся. Администраторы прокси-серверов могут не догадываться, что их используют как прокси.
Прокси-сервер можно получить, например, используя ошибки в скрипта.
Опоздал. Лично мне известны несколько подобных сервисов.
С одного из них каждый час я вытаскиваю списки из 150-200 прокси серверов. Ну надо мне ;)