- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. Передомной встала некая проблемма - защита от хотлинкеров и тех кто скачивает сайт целиком с помощью таких программ как teleport, download meneger и тому подобное... Сложности защитится от хотлинкеров нет если сайт находится в стандарте на сервере и в .htaccess прописан вот такой вот кодик :
RewriteEngine on
RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^http(s)?://(www.)?site.com [NC]
RewriteRule .(png|gif|flv|avi)$ - [NC,F,L]
Но это не дает защиту от скачивающих сайт целиком, а если на сервере есть тяжелые видеофайлы то это большая проблемма так как программы для скачивания полностью парализуют работу сервера из-за переполнения клиентских лимитов.
На помощь от них приходит "анонимный FTP", после загрузки на него тяжолых файлов выставляются лимиты на количество одновременных подключений и ограничений на использование пропускной способности. Но огромный минус в том что мне пока неизвестно каким образом защитится от хотлинкеров на "анонимном FTP"
Получается что менаеш ШИЛО НА МЫЛО.
Слышал о .ftpaccess - возможно ли через этот файл защитится от хотлинка ? Если да то подскажите пожалуйста добрые люди каким образом можно это реализовать.
лимиты на количество одновременных подключений и ограничений на использование пропускной способности
Кто мешает выставить эти лимиты на HTTP (скажем на поддомене)?
Сложности защитится от хотлинкеров нет если сайт находится в стандарте на сервере и в .htaccess прописан вот такой вот кодик :
RewriteEngine on
RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^http(s)?://(www.)?site.com [NC]
RewriteRule .(png|gif|flv|avi)$ - [NC,F,L]
ИМХО это элементарно обходится передачей реферера.
Brand from Amber, и как заставить каждого посетителя "обходить" и передавать неправильный Referer ?
С ftp это не решается никак - в протоколе нет возможности передавать referer или что-то подобное.
Но это не дает защиту от скачивающих сайт целиком, а если на сервере есть тяжелые видеофайлы то это большая проблемма так как программы для скачивания полностью парализуют работу сервера из-за переполнения клиентских лимитов.
Есть "ловушки" для выявления именно спайдеров: в код вставляется, например, пустой гиф, по которому ни один нормальный браузер не пойдет, зато охотно толпой идут всякие телепорты. По обнаружении этого IP блокируется. Не панацея, но право на жизнь имеет :) Реферы от спайдеров не защитят, т.к. в последних есть настройка для передачи рефера. Второй вариант - за сеанс считать хиты и затем при превышении === спайдер (должны бить исклюжены для поисковиков). Есть вариант шифровать ссылки на тяжелые файлы и отдавать именно их лимитировано. Плюс фтп в том, что легко ограничить, минус - под лимиты легко попадают и "порядочные" пользователи.
как на flash/flex сайтах сделать защиту от скачивания?
Огромное спасибо вам всем за информацию !