Народ, помогите кто чем может!!!

Dr.Slash
На сайте с 12.04.2004
Offline
32
1504

Достали злые роботы, точнее даже не они, а люди сливающие сайт с помощью прог и т.д.

Вот как пример сегодня мой и без того нагруженый сайт положил ia_archiver, по крайней мере у меня есть такое подозрение.

По сему вопрос:

Кто как спасается от робатов и качалок, кроме запрета в robots.txt, насколько я понял от качалок им я не закроюсь.

Занятия х****й на рабочем месте развивают боковое зрение, слух и бдительность в целом!
M
На сайте с 21.11.2004
Offline
230
#1

Как минимум запрещать по названию браузера.

Продвигаю домены руками (http://roke.ru)
A
На сайте с 25.10.2005
Offline
58
#2
A
На сайте с 25.10.2005
Offline
58
#3
maximumx:
Как минимум запрещать по названию браузера.

ну это однозначно не выход!

[Удален]
#4

быть может дело в открытости cms?

MK
На сайте с 02.05.2005
Offline
165
#5

Для апача есть модули, позволяющие ограничивать количество запросов с одного IP. Например, mod_throttle:

ThrottleClientIP 300 Request 500 60m

(разрешить с одного IP 500 запросов в течение 60 минут, 300 - максимальное число отслеживаемых IP)

pauk
На сайте с 26.01.2005
Offline
543
#6
Yanhert:
быть может дело в открытости cms?

Ты хоть понял, что сказал?

Hi!
eko
На сайте с 02.12.2005
Offline
30
eko
#7

Если выкачивают злонамеренно, то от заголовков много прока не будет... а манипуляции с ип-шками обернуться в геморой для добропорядошных юзеров.

Используй модуль Бородина - там это решено настолько, насколько возможно.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий