InoHacker

InoHacker
tw: inohacker
Рейтинг
75
Регистрация
18.10.2009
539490
vstb:
Собрать эталонный список можно. Еще проще его просто купить. Но ведь он устарет через сутки после покупки. Значит его нужно постоянно обновлять, что потребует либо знаний и программных ресурсов, либо финансов.

Пока вижу выход только прогонять айпи адрес через пару десятков DNSBL сервисов, в надежде, что в каком-то да окажется айпи в черной базе.

Возник у меня вопросец ....

а собственно для чего это все делается ?

Может проще тогда реализовать доступ только с "правильных" ИПИ, а при малейшем подозрении в бан ? Осталось только придумать правило для "правильных" ИПИ =)

vstb:
Если вы не заметили, то ту тему тоже я поднимал )
Которая в общем мало, что прояснила.

Задача состоит не в том, чтобы собрать список прокси, а в том, чтобы проверить конкретный айпи на принадлежность в элитному прокси.

Сорри .. не обратил внимание кто ТС той темы =))

Так я тоже под "собрать 50%" имел ввиду не сам сбор списка проксей =)

Имелось ввиду, что для того что бы проверить на принадлежность к элитному проксю, надо будет сравнить ИПИ с неким эталонным списком таких прокси. Вот я и имел ввиду, что собрать такой список получится процентов на 50%, остальные либо в привате лежат, либо под собственные нужды зарезервированы и естественно в паблике их найти не реал.

vstb:
Подскажите, кто знает, как можно определить, что пользователь пришел через элитный прокси?
Подчеркиваю: через элитный.
Может есть какой DNSBL сервис, который содержит более-менее полный список элитных прокси?

Почитай тут

По-моему к единому мнению так и не пришли.

А насчет списков ... думаю что процентов 50% сможешь собрать, остальное либо в привате, либо собственные, для личного пользования.

Ща обвинят, что ты с яшей заодно 🍻

Во .. пробуй =)

$d = "page";
$dh = opendir( $d ) or die ( "Не удалось открыть каталог $d" );
while($f = readdir($dh)) { $arr[] = $f; }
$lpp = 20; // 20 файлов на 1 страницу

if(isset($_GET['page']))
$page = $_GET['page'];
else
$page = 0;
$var = $page * $lpp;
for($x = 0; $x<$lpp; $x++)
{
$z = $var + $x;
if ($arr[$z] == '')
break;
echo '<a href="index.php?sub='.$arr[$z].'">файл '.$arr[$z].'</a><br>';
}
$pages = floor(count($arr) / $lpp);
echo 'Pages:';
for($y=0; $y <= $pages; $y++)
{
$z = $y +1;
echo '<a href="index.php?page='.$y.'">Страница '.$z.'</a> ';
}

Будешь пользовать - не забудь фильтровать $_GET, лень было вводить =)

А может попробовать сначала считать все имена в массив, а потом уже выводит постранично из массива ?

И кстати:

/* Именно этот способ чтения элементов каталога является правильным. */

while (false !== ($file = readdir($handle))) {
echo "$file\n";
}

/* Этот способ НЕВЕРЕН. */
while ($file = readdir($handle)) {
echo "$file\n";
}

Случаем не в вебмастере смотрите ?

А то у меня тоже такая история. Правда не с указанного сайта, а со множества других.

Как не искал, найти ссылки не смог, хотя появились они в вебмстере недавно =()

Rokfeller:
после письма в поддержку Яндекса они сказали что им типа так нравится

Я вот этого не понял из уст зеркала рунета ??

Давно пора следовать за прогрессом =))

RewriteCond %{REQUEST_URI} ^/forum/*

RewriteRule (.*) /oops.html [R=301]

Попробуй так.

Всего: 1309