Выкачка сайта

12
S
На сайте с 04.02.2007
Offline
318
svv
933

Есть ли возможность защитить сайт от выкачки, или сейчас это не реально?

S
На сайте с 30.09.2016
Offline
469
#1

Нет такой возможности.

Отпилю лишнее, прикручу нужное, выправлю кривое. Вытравлю вредителей.
fliger
На сайте с 17.09.2015
Offline
106
#2

Частично проблема решается проверкой числа обращений к страницам (если они идут с одного IP).

Arsh
На сайте с 21.03.2007
Offline
199
#3
fliger:
Частично проблема решается проверкой числа обращений к страницам (если они идут с одного IP).

Не решается. Боевой софт умеет устанавливать паузы и подключать прокси-лист.

sapsan72
На сайте с 06.12.2015
Offline
269
#4

Где то тут был скрипт, который по заверениям автора припятсвует таким схемам. Но это на мой взгляд сомнительно.

а вот он /ru/forum/981615

Продаю аккаунты Google Adsense Старые и новые! ( https://t.me/adsensetop ) Чат адсенс - не для нубов! ( https://t.me/adsense_pub ) Куплю твой Adsense! Телега ( https://ttttt.me/tut_ya )
GoRSS
На сайте с 29.07.2013
Offline
138
#5
svv:
Есть ли возможность защитить сайт от выкачки, или сейчас это не реально?

1. Писать в сессию referer и timestamp входа. При наличии 10-15 просмотренных страниц вычислять среднее время нахождения на каждой странице. Если меньше 3 секунд, банить.

2. Посредством js определять разрешение экрана, если меньше 1px на 1px, отправлять ajax'ом запрос к php-странице, которая просто отдаст die();

Но тогда возникает проблема с поисковыми ботами, ведь они тоже выкачивают сайт. Надо вводить исключения по user-agent, которые также можно подменить при выкачке.

Сами какие соображения имеете?

https://commersoft.ru - софт: Google Indexing [индексация в Гугле по API] - Webcontrol [мониторинг сайтов и доменов]
edogs software
На сайте с 15.12.2005
Offline
775
#6
svv:
Есть ли возможность защитить сайт от выкачки, или сейчас это не реально?

Если захотят выкачать - выкачают.

В конце концов наймут 100000 таджиков на толоке которые будут просматривать Ваш сайт у себя из дома и присылать заказчику выкачки отдельные страницы, непробиваемый способ от которого не защититься ни капчей, ни ограничением по ИП, ни регистрациями, ничем другим.

С другой стороны если психанете - никто не мешает сделать доступ на сайт по регистрации и сделать просмотр страниц платным.

Так что вопрос в конечном итоге сводится к тому, сколько препятствий Вы готовы причинить потенциально нормальному юзеру для причинения препятствий выкачивальщику, а так же насколько Вы дружелюбны хотите быть с поисковиками.

Более конкретный ответ требует более конкретной постановки задачи.

---------- Добавлено 24.04.2018 в 00:44 ----------

GoRSS:
1. Писать в сессию referer и timestamp входа. При наличии 10-15 просмотренных страниц вычислять среднее время нахождения на каждой странице. Если меньше 3 секунд, банить.

2. Посредством js определять разрешение экрана, если меньше 1px на 1px, отправлять ajax'ом запрос к php-странице, которая просто отдаст die();
1) Среднестатический юзер заходит на сайт и открывает 10 статей для просмотра - оппа, бан. А среднестатический граббер обычно вежливо выдерживает паузы и все скачивает.

2) Среднестатический граббер не умеет js, т.к. дорого по ресурсам. Кто там в граббере ajax будет посылать?:) А если граббер умеет js, то он отдаст нормальное разрешение.

Разработка крупных и средних проектов. Можно с криптой. Разумные цены. Хорошее качество. Адекватный подход. Продаем lenovo legion в спб, дешевле магазинов, новые, запечатанные. Есть разные. skype: edogssoft
GoRSS
На сайте с 29.07.2013
Offline
138
#7
edogs:
С другой стороны если психанете - никто не мешает сделать доступ на сайт по регистрации и сделать просмотр страниц платным.

Страницы закрыты, индексация сворачивается, трафик перестает поступать, покупателей доступа нет.

edogs:

1) Среднестатический юзер заходит на сайт и открывает 10 статей для просмотра - оппа, бан. А среднестатический граббер обычно вежливо выдерживает паузы и все скачивает.

Вы упустили из внимания среднее время, на каждую страницу 3 секунды для небота аномально. Среднестатистический граббер ничего не выдерживает, если не задать тайм-аут. При тайм-ауте в 5 секунд + 2 секунды на парсинг, 1000 страниц будет парситься почти 2 часа.

edogs:
2) Среднестатический граббер не умеет js, т.к. дорого по ресурсам. Кто там в граббере ajax будет посылать?:) А если граббер умеет js, то он отдаст нормальное разрешение.

Согласен, про ajax поспешно, т.к. вариант быстрый.

edogs software
На сайте с 15.12.2005
Offline
775
#8
GoRSS:
Вы упустили из внимания среднее время, на каждую страницу 3 секунды для небота аномально.

Среднее и будет меньше 3 секунд в описанном кейсе. Заходишь на сайт - открываешь сразу кучу ссылок, плюс браузер иногда предварительно кэширование делает.

А если не дай скажем закрыл браузер где было 50 вкладок, а потом его открыл - там и меньше 1/50 будет время страницы среднее:)

Если еще умножить это на то, что сейчас редко у кого есть выделенный ИП и прибавить к этому странную реализацию DPI у некоторых провайдеров, то количество безвинно забаненных будет неадекватным.

GoRSS:
Среднестатистический граббер ничего не выдерживает, если не задать тайм-аут. При тайм-ауте в 5 секунд + 2 секунды на парсинг, 1000 страниц будет парситься почти 2 часа.

Среднестатический граббер всегда работает по таймауту, т.к. иначе он тупо наткнется на какой-нибудь вполне стандартный фильтр от ддос атак. Да и поддержка прокси сейчас мало у кого отсутствует.

Апокалипсис
На сайте с 02.11.2008
Offline
391
#9

Есть способ. Добавьте бэйсик авторизацию :)

Записки нищего (http://zapiskinishego.ru) - мой личный блог Услуги php программиста. Очень нужна любая работа. Не покупают? Поведенческий аудит интернет-магазина за 5000 руб. (/ru/forum/990312)
GoRSS
На сайте с 29.07.2013
Offline
138
#10

edogs, тогда 20-30-40-50, а не 10. Реализация ясна.

Скрипт в моей подписи забирает все страницы сайта. Из 20 сайтов на одном срабатывает защита.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий