Защита от парсеров

юни
На сайте с 01.11.2005
Offline
934
#31

alexandr_nv, русские прокси - как раз не проблема.

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
kxk
На сайте с 30.01.2005
Offline
990
kxk
#32

юни, Ага берём сразу wahome подсети баним и многобайт и нет Русский проксей :)

Ваш DEVOPS
юни
На сайте с 01.11.2005
Offline
934
#33
kxk:
берём сразу wahome подсети баним

На здоровье. Моих ip там не будет.

[Удален]
#34

alexandr_nv, можно, если гуглю тоже хочется ее показывать, да и ваша срапча всего лишь небольшое усложнение задачи, в размере 1 бакс за 1000 капч. я вам реально говорю что шансов нет :D

а если есть, то расскажите как :)

TS
На сайте с 26.06.2008
Offline
36
#35

как вариант, можно контент явой отдавать, но надо учитывать заходы ПС

CenaMashin.ru (http://cenamashin.ru) - Сколько стоит твоя машина?
Olldman
На сайте с 21.04.2010
Offline
79
#36

Вычитывал, правда давненько, может и есть доля правды в методе? :http://omsk777.ru/robotbad.html

inse3t
На сайте с 08.05.2006
Offline
84
#37

Olldman, бред.

fleyg
На сайте с 21.09.2005
Offline
143
#38
Dram:
Нашел копию своего самого посещаемого сайта, обидно, хоть копия и не ранжируется высоко - все равно уроды они.

Задумался над защитой. У меня VDS, дибиан с панелью центр ос + рут доступ.
Можно как то ограничить скачивание информации, например принудительно выставить скорость в 10 кб/сек и ограничить объем скачиваемой инфы, например не более 100 мб в неделю.

Как вообще можно усложнить жизнь любителям попарсить?

Можно поинтересоваться объемом сайта? порядок документов?

TF
На сайте с 15.06.2010
Offline
7
#39

Я наверное выскажу ламерскую идею но

1) Заретить пользователям просматривать больше 2х страниц за < 30сек (типо выдавать им "Подождите, наш крутой сервис перегружен")

2) Добавить исключения для ИПов ПС.

ТОгда парсеры будут вынуждены парсить твой сайт Мееедленно )

D
На сайте с 09.07.2009
Offline
79
#40
TYUS:
как вариант, можно контент явой отдавать, но надо учитывать заходы ПС

И в чём проблема для парсера?

tranceFormer:
Я наверное выскажу ламерскую идею но
1) Заретить пользователям просматривать больше 2х страниц за < 30сек (типо выдавать им "Подождите, наш крутой сервис перегружен")
2) Добавить исключения для ИПов ПС.

Ну вот нормальные люди и не протерпят больше 30 сек.

А что если каждый день генерить новую вёрстку? Ну то есть не новую, а просто теги заменять на аналогичные, название классов стилей менять? Разве не прокатит?

И не надо париться с ПС. :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий