- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сильное желание защитить контент сайта :) Подумал о том, чтобы рандомизировать названия стилей - для каждой страницы генерировать уникальные, или грузить свой css.
Подскажите, будет ли это работать? :) И какие возможны подводные камни? Кроме невозможности кэширования и увеличения трафика и ресурсов?
Есть сильное желание защитить контент сайта :) Подумал о том, чтобы рандомизировать названия стилей - для каждой страницы генерировать уникальные, или грузить свой css.
Подскажите, будет ли это работать? :) И какие возможны подводные камни? Кроме невозможности кэширования и увеличения трафика и ресурсов?
Самый лучший вариант проверить, работает ли это, это протестировать на наиболее распространенных парсерах.
У меня есть несколько, могу проверить, присылайте урл.
и
я один связи не вижу?
Не будет работать. CSS парсерам нафиг не нужен.
LEOnidUKG, ага ))
Тут нужно копать, как минимум, в сторону рандомизации структуры документа.
Я предполагаю, что "парсеры", как вы их называете, первым же делом вырезают из документа все стили, переносы строк и повторяющиеся пробелы.
Как минимум, я бы сделал, чтобы в тэгах периодически параметры местами менялись в случайном порядке.
Не публикуйте этот контент.
Может хватит уже?
LEOnidUKG, переформулирую: осложнить работу парсеру, убрав повторяющиеся элементы со страницы, в частности - названия стилей.
KM.UA, а как определяется, что такой-то кусок кода содержит текст, а такой-то - меню?
я один связи не вижу?
большинство парсеров работают по принципу. Задал начальный тег в странице и конечный. Они все что между ними копируют. Если сочетания тегов или знаков не найдено, то копируется только одна страница.
Дальше парсер просто не знает, что ему искать.
Мдя, похоже, я не с того конца подошёл к проблеме...
Тогда не скажете, где почитать, как работает типичный парсер? То есть, что он делает с html-страницей, конкретно?
P.S.: Я не глупый... и гуглем пользоваться умею... просто никогда раньше с этим дела не имел, и не знаю откуда начать :o
большинство парсеров работают по принципу. Задал начальный тег в странице и конечный. Они все что между ними копируют. Если сочетания тегов или знаков не найдено, то копируется только одна страница.
Дальше парсер просто не знает, что ему искать.
ооо ну вы типо усложнили задачу? Самый простой вариант:
1. Парсим все div
2. Выбираем где символов побольше
3. Профит.
у меня есть защита от любых парсеров на 100% :)
--
для вывода каждого предложения текста надо просить ввести капчу :). и каждое следующее предложение подгружать аяксом :).
Хотя. [чтобы прочитать этот текст отправьте смс на номер 5555 с текстом TEXT]. Это я думаю будет лучший вариант :)
Защитится от парсеров подругому будет проблематичней.