abbat13

Рейтинг
18
Регистрация
04.09.2013
Снимаю. Порчу.

Всем спасибо за ответы! Пока остановился на tehnodom.com (~480 руб./TB) - потестируем, посмотрим.

lhoster:
Сколько трафика? Какой канал? Постоянная нагрузка или в определенное время?

Входящего на старте будет 5TB (начальная копия всех данных), дальше дельты через rsync (где-то 200-300GB в неделю). Исходящий в случае фатальной аварии будет размером с резервную копию (но это должно сильно не повезти). По каналу больше 30-60 Mb на практике не получалось, по этому можно ориентироваться на эти числа. Нагрузка не постоянная (синхронизация по cron), но первоначальная заливка создаст нагрузку на длительное время.

+7 - современным человеком считывается так же легко, как в 90-х считывался "095"

8 - атавизм, аналогичный www - современный человек не пользуется выходом на межгород через декадно-шаговую АТС.

Hixon10:
Что лично мне хотелось бы от инструмента для бэкапов:
Инкрементальный бэкап: каждый день сайты изменяются, и хочется, чтобы мой бэкап всегда был актуальным (синхронизированным).

Если rsync/duplicity/tar считаются недружелюбными (хотя чего уж проще), то можно попробовать zpaq - он позволяет делать инкрементальные архивы, плюс достаточно неплохо их сжимает (я так понимаю, что проблема в канале для скачивания?).

Kerosene:
всем понадобилась безопасность, столько важных данных хранится на их стороне, сколько персональных данных хранят их бд!

Тут дело не только в важности данных на стороне поставщика контента. Небезопасные соединения позволяют выявлять круг интересов пользователя, что так же дает некоторую информацию.

"Панк из Саратова посещающий форум аквариумистов" - а стандартный пароль у него "БарбусМеченосец" (утрированно конечно, но смысл приблизительно таков).

Прочитать, осознать, выполнить:

Зарегистрироваться и отслеживать (для русскоязычных рассылок):

Ну и рассылку вести, естественно, со своего сервера.

Romka_Kharkov:
к нему хотят обращаться 10.000 абонентов в секунду!!! (~864 миллиона запросов в сутки!)

В первую очередь, я бы уточнил цифру до реальной, т.к. указанная сопоставима с нагрузкой на порталы типа facebook и, естественно, не решается "штатными" способами.

chelovekpauk:
Вот тут написано, что robots.txt учитывается. Ещё там написано, куда писать о проблемах.

На заборе тоже бывает написано, а на практике надо просто отправлять в бан подсети 109.207.0.0/20 и 5.143.224.0/21 - невелика будет потеря.

Metal_Messiah:
Думал сделать через клиент DropBox, только там скорее всего будут проблемы с правами доступа к файлам - dropbox насколько я помню запускается из под своего юзера, и может быть конфликт с юзером www-data.

Если интересует dropbox-подобное решение, то можно попробовать использовать яндекс.диск и ydcmd (или аналог, запуская ее из под нужного пользователя), но это все равно не решает проблемы взлома аккаунта в облаке, что позволит злоумышленнику залить свои файлы на оба сервера.

С другой стороны, судя по тому, что все сайты работают из под www-data (вместо заведения отдельного пользователя под каждый), то особо париться по поводу безопасности смысла нет.

Apos:
Вопрос 1. Должен ли я давать доступ при такой задаче и если альтернативные варианты?

Хорошему разработчику не нужны никакие доступы - достаточно резервной копии имеющегося сайта, а все остальное у него уже есть (потому что он хороший разработчик). Вообще, желание разрабатывать что-либо на живом боевом сайте - первый нехороший "звоночек".

Всего: 108