Защита от парсинга сайта

Ervin
На сайте с 15.08.2008
Offline
112
9461

Есть сильное желание защитить контент сайта :) Подумал о том, чтобы рандомизировать названия стилей - для каждой страницы генерировать уникальные, или грузить свой css.

Подскажите, будет ли это работать? :) И какие возможны подводные камни? Кроме невозможности кэширования и увеличения трафика и ресурсов?

Credendo vidas!
fhuuz
На сайте с 08.03.2009
Offline
247
#1
Ervin:
Есть сильное желание защитить контент сайта :) Подумал о том, чтобы рандомизировать названия стилей - для каждой страницы генерировать уникальные, или грузить свой css.
Подскажите, будет ли это работать? :) И какие возможны подводные камни? Кроме невозможности кэширования и увеличения трафика и ресурсов?

Самый лучший вариант проверить, работает ли это, это протестировать на наиболее распространенных парсерах.

У меня есть несколько, могу проверить, присылайте урл.

LEOnidUKG
На сайте с 25.11.2006
Offline
1769
#2
защитить контент сайта

и

рандомизировать названия стилей

я один связи не вижу?

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
KU
На сайте с 17.07.2008
Offline
251
#3

Не будет работать. CSS парсерам нафиг не нужен.

Хостинг ( https://good-host.net ) / Linux VPS ( https://good-host.net/vps ) / Windows VPS ( https://good-host.net/windows-vps ) / Выделенные серверы ( https://good-host.net/dedicated ) 14 лет онлайн!
[umka]
На сайте с 25.05.2008
Offline
456
#4

LEOnidUKG, ага ))

Тут нужно копать, как минимум, в сторону рандомизации структуры документа.

Я предполагаю, что "парсеры", как вы их называете, первым же делом вырезают из документа все стили, переносы строк и повторяющиеся пробелы.

Как минимум, я бы сделал, чтобы в тэгах периодически параметры местами менялись в случайном порядке.

Лог в помощь!
ewg777
На сайте с 04.06.2007
Offline
225
#5
Есть сильное желание защитить контент

Не публикуйте этот контент.

Может хватит уже?

Ervin
На сайте с 15.08.2008
Offline
112
#6

LEOnidUKG, переформулирую: осложнить работу парсеру, убрав повторяющиеся элементы со страницы, в частности - названия стилей.

KM.UA, а как определяется, что такой-то кусок кода содержит текст, а такой-то - меню?

SS
На сайте с 02.02.2009
Offline
116
#7
LEOnidUKG:
я один связи не вижу?

большинство парсеров работают по принципу. Задал начальный тег в странице и конечный. Они все что между ними копируют. Если сочетания тегов или знаков не найдено, то копируется только одна страница.

Дальше парсер просто не знает, что ему искать.

Ervin
На сайте с 15.08.2008
Offline
112
#8

Мдя, похоже, я не с того конца подошёл к проблеме...

Тогда не скажете, где почитать, как работает типичный парсер? То есть, что он делает с html-страницей, конкретно?

P.S.: Я не глупый... и гуглем пользоваться умею... просто никогда раньше с этим дела не имел, и не знаю откуда начать :o

LEOnidUKG
На сайте с 25.11.2006
Offline
1769
#9
specialist-seo:
большинство парсеров работают по принципу. Задал начальный тег в странице и конечный. Они все что между ними копируют. Если сочетания тегов или знаков не найдено, то копируется только одна страница.
Дальше парсер просто не знает, что ему искать.

ооо ну вы типо усложнили задачу? Самый простой вариант:

1. Парсим все div

2. Выбираем где символов побольше

3. Профит.

satrau
На сайте с 08.11.2009
Offline
12
#10

у меня есть защита от любых парсеров на 100% :)

--

для вывода каждого предложения текста надо просить ввести капчу :). и каждое следующее предложение подгружать аяксом :).

Хотя. [чтобы прочитать этот текст отправьте смс на номер 5555 с текстом TEXT]. Это я думаю будет лучший вариант :)

Защитится от парсеров подругому будет проблематичней.

Россошь (http://www.flash9.ru)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий