Как защитится от лича/граба без использования CMS

12
V
На сайте с 14.02.2007
Offline
4
879

Допустим, есть сайт, написанный на html в полной и беспробудной статике. На нем выложено много файлов для скачки, как защитится от массового даунлода? Есть ли для этого какой-нить пхп-скрипт или нечто подобное?

Буду очень презнателен.

D
На сайте с 14.01.2007
Offline
153
#1
Vitalijj:
написанный на html в полной и беспробудной статике

если так и останется, то перспективы не очень...

T
На сайте с 11.08.2005
Offline
181
#2
Vitalijj:
Допустим, есть сайт, написанный на html в полной и беспробудной статике. На нем выложено много файлов для скачки, как защитится от массового даунлода? Есть ли для этого какой-нить пхп-скрипт или нечто подобное?

Даже на динамических движках такая защита не очень легко реализуется, да и то, она не дает 100% гарантии защиты от автоматического скачивания.

Статический сайт защитить скриптами нельзя по определению.

topy
На сайте с 28.03.2006
Offline
142
#3

100% защиты нет, но советую почитать про .htaccess - от массового граба (вроде) можно защититься.

Новости коротко и ясно (https://subnews.ru)
progress
На сайте с 11.07.2006
Offline
125
#4
Shtogrin
На сайте с 02.11.2006
Offline
95
#5
topy:
100% защиты нет, но советую почитать про .htaccess - от массового граба (вроде) можно защититься.

Врядли. Вручную блокировать адреса?

Есть специальные модули для Apache (mod_limitipconn, mod_bwshare, ...), но для этого надо иметь как минимум свой сервер, тогда можно писать и в VirtualHost и htaccess

www.shtogrin.com (http://www.shtogrin.com/). Канцтовары (http://www.invit.com.ua/). 1С Бухгалтерия (http://account.kiev.ua/).
A
На сайте с 27.12.2006
Offline
15
#6

В .htaccess напиши

RewriteEngine on

RewriteCond %{HTTP_REFERER} !^http://сайт.ru/.*$ [NC]

RewriteCond %{HTTP_REFERER} !^http://www.сайт.ru/.*$ [NC]

RewriteRule .*\.(mp3|avi|rar|zip)$ http://сайт.ru/index.htm [R,NC]

первые два урла означаю что с этих сайтов можно скачивать.

В последней строке указано файлы с какими расширениями запрещено

скачивать и юрл на который перейдёт юзверь, пытающийся скачать файл не с твоего

сайта.

Хотя менеджеры закачек-- FlashGet, NetVampire и т.д., при добавлении ссылки в список работ автоматически подставляют ему HTTP_REFERER‘ом ту же ссылку, только без названия файла.

V
На сайте с 14.02.2007
Offline
4
#7

Огромное спасибо всем за ответы - буду пробовать.

2Antar: реализовано нечто подобное на других сайтах на этом же серве, но, как Вы сами написали, даунлодменеджеры справляются с этим без проблем.

А можно вопрос спецам:

http://kiev-security.org.ua/b/ попробуйте скачать любую книгу из библиотеки и... как это реализовано? Не то, чтобы я сам хотел установить такую "антигуманную" защиту, да и сайт бегает на CMS, но все же..

D
На сайте с 14.01.2007
Offline
153
#8
Vitalijj:
как это реализовано?

книга отдаётся скриптом + скрипт защищён через .htaccess (юзверь правда всегда один...)

такая защита тоже не сработает против тех, кто ОЧЕНь хочет скачать все книги за раз.

K
На сайте с 12.07.2006
Offline
295
Kpd
#9

Vitalijj, если есть возможность использовать PHP и хорошие ресурсы, то проблему можно решить (минимизировать) в два шага

1. Свести все обращения к статике к обращениям к скрипту, примерно

RewriteRule ^(.*)\.html /script.php?page=$1

2. В скрипте обрабатывать количество закачек с данного ip (за данную сессию), показывать активным пользователям капчи или что-нибудь другое для блокировки массовых закачек.

R
На сайте с 26.03.2007
Offline
20
#10
Vitalijj:

http://kiev-security.org.ua/b/ попробуйте скачать любую книгу из библиотеки

Скачал нашим универсальным грабером, что делать дальше?

система управления контентом CMS БКcms http://www.bkcms.ru (http://www.bkcms.ru) (495) 796-80-66
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий