siv1987

siv1987
Рейтинг
427
Регистрация
02.04.2009

Да, без кнопки "CHECK" как-то не очень.)

Вообщем с учетом "union/**/select" код будет выглядеть примерно так


$test = urldecode($_SERVER['REQUEST_URI']);
$test = preg_replace('#/\*.*?\*/#', '', $test);
if(strlen($test) > 255 ||
preg_match('/(eval|base64_(?:encode|decode))[\s]*\(/i', $test) ||
preg_match('/UNION[\s]+SELECT|CONCAT[\s]*\(/i', $test) )
{
@header("HTTP/1.1 414 Request-URI Too Long");
@header("Status: 414 Request-URI Too Long");
@header("Connection: Close");
@exit;
}
6666:
Не давать сторонним лицам названия закрытых папок и файлов.

6666, а зачем их палить в роботсе если они закрытые? По нормальному если это закрытые папки, то они действительно должны быть закрытыми, а не ваять вот такие костыли. Ведь даже с запретом гугл не гарантирует их не индексацию.

SeVlad:
Учим матчасть. Как вариант - осиливаем 21 пост топика.

Ну на самом деле там говориться про older client, а так https://www.google.ru/search?client=opera&rls=ru&q=request+uri+length&sourceid=opera&ie=utf-8&oe=utf-8&channel=suggest

siv1987:
UNION(?:[\s]+|(?:[\s]*(/\*.*?\*/)[\s]*))SELECT

Хм... правильнее наверное было бы так

$test = preg_replace('#/\*.*?\*/#', '', $test);

union/**/select

UNION(?:[\s]+|(?:[\s]*(/\*.*?\*/)[\s]*))SELECT

А в чем глубокий смысл прятать роботс?

Фильтровать по юзер-агенту. Только что видно ботам, разве не проверяться по айпи-адресу, можно получить и из под пользователя.

Обнаружил такое при посещении сайта: через rds bar файл robots не видно, а если в google посмотреть страницы, то там пишет на некоторые что описание закрыто правилом robots.txt

Там еще используется мета-тег robots

Хотя да, доступ к роботсу стоит по юзер-агенту


$test = urldecode($_SERVER['REQUEST_URI']);
if(strlen($test) > 255 ||
preg_match('/(eval|base64_(?:encode|decode))[\s]*\(/i', $test) ||
preg_match('/UNION[\s]+SELECT|CONCAT/i', $test) )
{
@header("HTTP/1.1 414 Request-URI Too Long");
@header("Status: 414 Request-URI Too Long");
@header("Connection: Close");
@exit;
}

<a\s[^>]*href=["']([\w]+:\/\/([^\/"']+)\/?.*?)["'][^>]*>(.*?)<\/a>

$1 => http://site.ru/folder

$2 => site.ru

---------- Добавлено 26.04.2013 в 01:52 ----------

II

/<a\s[^>]*href=["']([\w]+:\/\/(.+?)(\/.*?)?)["'][^>]*>(.*?)<\/a>/

$1 => http://site.ru/folder

$2 => site.ru

$3 => /folder

Слабоват плагинчик. "Громоздкие конструкциив htaccess" не просто так пишутся. Второе и последнее, имхо, бессмысленно проверять в REQUEST_URI. Четвертый 1) не учитывает регистр 2) обходиться заменой на %20. Для сканеров может чем-то и поможет...

Yerbol:
Можно ли оставить сайт www.old-site.com без файла и без базы данных только перенаправлять через .htaccess.

Можно. Можно только один только htaccess и оставить.

Всего: 6568