Запрет на скачку сайта!

12
S
На сайте с 03.05.2004
Offline
25
1534

Народ такой вопрос, если я напишу в роботс:

User-agent: TelePort Pro

Disallow: /

То не получетьчся скачать сайт?

А вы не вкурсе, просто у меня в логгах это есть:

Firebird

LibWWW

Это программы скачки сайта тоже?

Все для мобил (http://www.gsmsoft.ru) Помогите оптимизировать! Спасибо
E
На сайте с 09.06.2003
Offline
96
#1

Не так не получится.

Меня тоже этот вопрос интересует. Вот что я нашел

http://php.spb.ru/other/_dima_noflood.php

Поиск книг в интернет магазинах (http://bookza.ru)
Каширин
На сайте с 03.01.2004
Offline
1018
#2
Как писал esergey
Не так не получится.

Почему?

[Удален]
#3

Если указывать версию телепорта (Teleport Pro 1.29 к примеру), то работает точно, а так - не знаю...

M
На сайте с 05.01.2003
Offline
31
#4

Для Телепорта пользователь может отключить опцию учитывания robots.txt

И качалок и без Телепорта существует немеряно.

Давно здесь ета тема довольно детально обговаривалась. Помню, были варианты отсекать большой поток запросов а также следить за переходом UA по невидимым человеческому глазу ссылкам и в случае выявления блокировать.

ІТ-Аналітика (http://it.ridne.net) - аналітичні матеріали світу інформаційних технологій
S
На сайте с 03.05.2004
Offline
25
#5

Каширин, а как сделать то?

toxa, у меня и так нагрузка из-за посешаемости большая, а тут я еще и его подключу, не нада через роботс!

А
На сайте с 14.11.2003
Offline
150
#6
Как писал seva
а как сделать то?

Я вот недавно видел на одном известном ресурсе такой код в robots.txt

User-agent: *

Disallow: /раздел/
Host: www.сайт.ru

User-Agent: DISCo Pump, Wget, WebZIP, Teleport Pro, WebSnake, Offline Explorer, Web-By-Mail, Teleport Pro/1.29, Scooter-W3-1.0
Disallow: /

И вроде вся эта запись противоречит стандартам... однако ничего - работает. И оффлайн-браузеры не достают.;)

S
На сайте с 03.05.2004
Offline
25
#7

Да у меня в логахз написано что каждый день меня качают!

И написано просто Teleport Pro

T
На сайте с 25.04.2004
Offline
13
#8

А вот мне непонятен сам вопрос, а зачем блокировать? Разве плохо, что люди хотят скачивать сайт? Значит эта информация им нужна. А запретить ее добыть все равно не реально, мне кажется....

Rassell
На сайте с 03.12.2003
Offline
124
#9

"Разве плохо, что люди хотят скачивать сайт?"

Есть верятность того, что например появится сайт-клон с вашим неного измененным контентом. Полностью исключить утечку информации невозможно. Есть Java скрипты шифрующие html страницы, но и в этой "защите" есть дырки ;-)

Каширин
На сайте с 03.01.2004
Offline
1018
#10
Как писал Анар

Я вот недавно видел на одном известном ресурсе такой код в robots.txt
User-agent: *

Disallow: /раздел/
Host: www.сайт.ru

User-Agent: DISCo Pump, Wget, WebZIP, Teleport Pro, WebSnake, Offline Explorer, Web-By-Mail, Teleport Pro/1.29, Scooter-W3-1.0
Disallow: /

И вроде вся эта запись противоречит стандартам... однако ничего - работает. И оффлайн-браузеры не достают.;)

Это и есть рулез. Каким таким стандартам это противоречит?

Кстати, может и качалок немеряно, может и вручную можно контент перелить, а только заблокировав самые популярные качалки, вы от 95% воришек застрахуетесь...

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий