- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Людям с медленным инетом делать то, что они умеют делать лучше всего:
нервничать ожидая загрузки, а если не загрузилось то нажимать "Обновить" в браузере.
Это не ответ, а отмазка :)
С Вашей схемой юзабилити стремится к нулю. ;)
От автоматической загрузки смысла нет никакого - можно сразу тащить контент одной страницей без аякса.
При установке же слишком большого времени, быстрорукий программер успеет получить требуемые данные и подделать запрос за время валидности кода.
Куки, кстати, передаются через те же ХТТП заголовки, следовательно, подделать ни их, ни ссылку не составляет никакого труда.
To: dkameleon
Я и описывал способы, разделяя их по уровню "железности", т.е. надёжности.
Пора бы уже уяснить: абсолютных защит нет.
Например, специалистам NASA не составит труда написать браузер, который будет посещать ваш сайт через анонимные прокси и при этом копировать текст ваших страниц распознавая символы.
А любой программер может за 60 минут написать простой код используя различные модули, который будет скачивать вашу страницу так, словно это обычный браузер, и ничем от пользователя отличаться не будет.
Подделать можно не только заголовки HTTP но и заголовки IP пакетов. Прецеденты в истории интернета были.
По этому я сразу говорил о ограничениях, и сразу дал правильную формулировку вопроса.
Вывод: самый лучший метод не позволить что-то кому-то скачать, это стереть информацию и забыть её сразу.
Для себя тему считаю закрытой.
Пора бы уже уяснить: абсолютных защит нет.
Так с этим ещё до Вас разобрались :)
Разве что ранее предлагаемые методы не были с временной зависимостью, по сути, больше мешающей пользователю, чем помогающей защитить данные. :)
Видимо, задача требует некоторого уточнения (поскольку по двум пунктам не попадает под общий случай).
1. Предполагается, что data.xml будет запрошен сразу же, как только страница будет загружена. Почему не вставить в страницу напрямую? Чтоб не вытащили напрямую же со страницы. Значит, надо запрашивать уже после того, как страница загрузилась. Как? Запросить XML-документ, конечно (собственно аякс). Тут встал вопрос следующей, более серьезной, ступени защиты: как защитить запрашиваемый документ. Собственно, первый пост именно об этом.
2. Сервис предполагает толстый интернет-канал у клиента. Это требование от меня почти не зависит и оно в исходных данных. Так что те, кто не смог получить документ в течение одной минуты (вообще, я предполагаю, что даже в течение 5-10 секунд), те сервисом будут пользоваться с очень большим трудом. dkameleon, я с вами полностью согласен, что в общем случае нельзя таким образом ограничивать пользователя (либо успевай, либо гуляй). Но в данном конкретном, это может быть оправдано.