сервис для запрета скачивания сайта

S
На сайте с 27.05.2009
Offline
6
1995

Есть ли такой сервис или скрипт, для запрета скачивания сайта, как например templateaccess.com работающий под dreamtemplate.com

запрет TeleportPro и тому подобных программ через robots не интересует))

john_petrov
На сайте с 19.06.2005
Offline
103
#1
stadion:
Есть ли такой сервис или скрипт, для запрета скачивания сайта, как например templateaccess.com работающий под dreamtemplate.com
запрет TeleportPro и тому подобных программ через robots не интересует))

Там просто реферрер проверяется, и если он не содержит dreamtemplate.com, то пользователь высылается.

if (strpos($_SERVER['HTTP_REFERRER'],'dreamtemplate.com') === false)

{

echo 'гуляй лесом';

exit();

}

Домены для вашего бизнеса на PremiumDomains.ru (http://PremiumDomains.ru/) | Айфоны в Питере iPhonePiter.ru (http://iPhonePiter.ru)
S
На сайте с 28.10.2005
Offline
319
#2
john_petrov:
Там просто реферрер проверяется, и если он не содержит dreamtemplate.com, то пользователь высылается

Мощне защита 😂

Поисковых ботов тоже отфутболивает?

Nunan
На сайте с 15.08.2008
Offline
78
#3

Есть два варианта, простой(.htaccess) и посложнее (скриптами):

Посложнее:

Надо написать небольшой код PHP плюс использовать robots.txt.

Можно в самом начале КАЖДОЙ страницы создать ссылку

<noindex><a rel='nofollow' href='/trap.php' style='display:none;'>trap</a></noindex>
(боты google и yandex по ней не должны идти)

также в файле robots.txt(не уверен teleport обращает на него внимание или нет) прописать запрет на индексацию trap.php

User-agent: *
Disallow: /trap.php

PHP скрипт в trap.php - записывать в сессии инфу о том что в ловушку попал бот

session_start();
$_SESSION['bot-trap']=$_SERVER['HTTP_USER_AGENT']; //можно даже лог вести если надо
die();

Во всех скриптах (index.php...) в начале прописать, что-то типа:

session_start();
if(!empty($_SESSION['bot-trap']) || preg_match("/teleport/i", $_SERVER['HTTP_USER_AGENT'])) die('сайт закрыт для ботов');

Через .htaccess:

RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^teleport\ pro
RewriteRule .* - [F]


возможно допустил где-то ошибку, на практике не проверял

S
На сайте с 27.05.2009
Offline
6
#4

а сервис есть похожий?

KA
На сайте с 03.01.2007
Offline
137
#5
Nunan:
Есть два варианта, простой(.htaccess) и посложнее (скриптами):

На PHP используя CURL парсер будет имитировать человечность (реферрер, браузер и тп)

+ втупую написать не заходить trap.php

+ можно через прокси каждый запрос

Так что от хорошего граббера вы защиты не найдете.

Интернет магазин оптических приборов (http://oz.com.ua) в Украине - бинокли, микроскопы, телескопы.
frantic
На сайте с 09.02.2009
Offline
27
#6
semenov:
Мощне защита 😂
Поисковых ботов тоже отфутболивает?

ну предварительно наверно User-Agent проверяется :)

S
На сайте с 28.10.2005
Offline
319
#7
frantic:
ну предварительно наверно User-Agent проверяется :)

Было б так все просто )

Nunan
На сайте с 15.08.2008
Offline
78
#8

Можно еще проверять на частоту запросов. Если пользователь пробует загрузить более 3-4х страниц в секунду, то делать из этого выводы.

Dreammaker
На сайте с 20.04.2006
Offline
569
#9
Nunan:
Если пользователь пробует загрузить более 3-4х страниц в секунду,

хм, ставить рендом sleep это правило хорошего тона для парсера :D Так, что всегда поможет.

[Удален]
#10
Dreammaker:
хм, ставить рендом sleep это правило хорошего тона для парсера Так, что всегда поможет.

у меня последний парсер жрет в 100 потоков, без пауз и через прокси, видимо мой парсер обладает дурным тоном :D

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий