ortegas

Рейтинг
195
Регистрация
29.05.2008
iamsens:
для перекрестных инкрементальных бекапов, в обоих местах, должна быть одинаковая ФС, иначе флаги и владельцы файлов не сохранятся

Проблема архивирования это не проблема. Никаких одинаковых ФС не нужно. Вся аутентичная информация содержится в дополнительном файле, как и положено для архивов. Отличие лишь в том, что это как бы архив, но не архив, ибо без сжатия и без контейнера. Восстановление будет происходить с помощью этой карты. DISM, Wbadmin, recimage, и другие средства архивирования, кроме File History, создают карты автоматически и отлично восстанавливают образы, как с DVD, так и с FAT флешек.

iamsens:
проблема удаленных дисков в "задержках"

Задержки на монтирование или на каждую команду? А keep-alive там не работает? :)

Himiko:
Если безопасность важна, то лучше обратитесь к специалистам.
iamsens:
openvpn+ftp

Боже упаси.

20 лет.

В жизни ни разу не был пьян.

Всегда отказывался на предложение выпить алкоголь. Никаких проблем в общении со знакомыми. Да и знакомые не те. Очень доволен, что "имею иммунитет к этой чуме".

Когда очень плохо, есть желание выпить... кофе. Да впрочем, и когда хорошо. :)

Проводник Windows поддерживает работу с FTP, WebDAV по ярлыку (предварительно ассоциировать проводник с FTP протоколом в панели управления пункт "Программы по умолчанию") или через ручное монтирование диска. Есть расширение для поддержки SFTP.

Поддержка активного режима включается в свойствах Internet Explorer.

Лично я, использую проводник.

Смотрите.

1. Есть документы на компьютеры, которые нужно синхронизировать в облако, по аналогии с Dropbox. То-есть, они будут редактироваться с разных устройств, а облако как-бы посредник.

2. Есть компьютеры, системные файлы которых будут архивироваться в облако по аналогии с Time Capsule.

3. Есть сервер UNIX, который должен архивироваться по аналогии с Time Capsule (все файлы, кроме тех, которые уже есть на компьютере) на главный компьютер, где смонтирован диск через те же средства архивирования, но уже не системного диска, а сетевого.

Итого, получается, что сервер архивируется на компьютер, а компьютер на сервер. Одним слово - синхронизация, зеркало.

У меня стоит вопрос в одном - подходит ли для облачного хранилища WebDAV протокол и как его лучше реализовать.

iamsens, ну так напишите мне недостатки сетевого диска. А то ноль смысла в вашем сообщении, абы написать. 🙅

Himiko:
по подобным протоколам не даёт

По SFTP доступ ко всем директориям по-умолчанию для root. Чем же SFTP безопаснее WebDAV? Тем, что запросы не шифрует? :)

Оптимизайка, совсем нет. Сервер будет работать по типу облачного хранилища, и кроме двухстороннего бекапа (с компьютера на сервер, а с сервера на компьютер), будет еще и синхронизация документов.

WebDAV интегрирован в системы Win и Mac OS. С WebDAV можно работать прямо через проводник, впрочем, как с небезопасным FTP. SFTP является не официальным протоколом, поэтому, для работы с ним нужны заплатки. Соответственно, с WebDAV может работать любая встроенная в ОС утилита, которая работает с сетевыми дисками. Я искал, но не нашел путной программы, которая бы добавила возможность работать с SFTP как с сетевым диском. В WebDAV это по умолчанию.

Кроме того, WebDAV является безопаснее за SFTP, он шифрует не только данные, но и команды.

А у нас работает. Приезжайте к нам. На Youtube. :)

Dinozavr, уважаемый, я вам привожу хотя-бы какие-то аргументы. От вас я увидел кучу эгоцентризма, но ноль аргументов в следующей строчке, с которой все и началось.

Dinozavr:
двойной ужос ужос

Вы эту дискуссию начали, вы и приводите аргументы.

[ATTACH]133237[/ATTACH]

png gc89R.png

Dinozavr, для меня, PDO в проекте - верный признак халтуры.

Все входящие данные у меня проверяет отдельный метод. Я указываю все допустимые $_POST, $_GET, $_COOKIE, их тип, максимальную и минимальную длину или значения (для цифровых значений), надобность в экранировании специальных символов. Данные, которые проходят валидацию попадаю в $_SESSION (memcached), где номер объекта равняется UNIX время запроса.

Таким способом я отлавливаю нужные данные раз и навсегда и работаю с ними в любой части скрипта. Кроме того, я введу учет каждого запроса пользователя. И если случится какая-то ошибка во время выполнения запроса, будь-то, например, ошибка подключения к базе данных, я смогу восстановить все входящие данные.

А что ваш PDO::prepare? Он расходует ресурсы на парсинг текста, и фактически только экранирует специальные символы и валидирует SQL запрос, который у меня в production версии обязательно верный. Я уже молчу о том, что данные $_SESSION у меня сохраняются и после завершения работы скрипта, я могу их использовать многоразово, когда PDO валидирует запрос и данные каждый раз.

Рассмотрим пример. Ожидается FLOAT под $_POST['id'].

Мой метод: (float) $_POST['id'].

PDO: prepare, execute(['id' => (float) $_POST['id']]) (проверка на спец. символы).

Вопрос: зачем инициализировать поиск спец. символов в FLOAT, INT, STRING, которые пользователь не может изменить? Это нужно только в случае входящего STRING, для такого случая, у меня есть тип SQL.

Моя структура гарантирует не только невозможность SQL инъекций, а и валидность каждого входящего параметра. А Database служит только посредником для непосредственно исполнения SQL запросов. В которых ошибок по существу быть не может.

Каждый метод (даже connect) в PDO выполняется медленнее - причины очевидны. Чем сложнее конструкция - тем сложнее и медленнее выполнение. Возможно, PDO кому-то и полезен, например, криворуким новичкам, но в любом серьезном проекте, рано или поздно будет поставлен вопрос об оптимизации производительности - отказе от PDO.

Dinozavr, PDO - жирный монстр. Жирный и неуклюжий. Использовать PDO ради одного языка, то самое, что использовать jQuery ради одной функции.

PHP рекомендует использовать mysqli.

[ATTACH]133235[/ATTACH]

png ZafgG.png
Всего: 3009