- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет.
Запустил первый форум, до этого делал только контентные проекты, для которых обычных ежедневных бэкап от хостера или самостоятельных в ISP менеджере всегда хватало. Но с форумом так не прокатит, ведь за сутки юзеры тысячи своих сообщений, файлов и прочего потеряют, если сделать откат...
Подскажите, пожалуйста, как это должно быть реализовано у UGC проектов, чтобы терять минимум данных, в случае сбоя или взлома?
Вот прям так тысячи сообщений и файлов. Живы юзеры будут даже если недельные данные потеряются, на форумах все равно не принято ничего полезного сейчас писать.
Вот прям так тысячи сообщений и файлов. Живы юзеры будут даже если недельные данные потеряются, на форумах все равно не принято ничего полезного сейчас писать.
Помимо постов, юзеры ведут личные дневники, пользуются рядом сервисов ,вводя в них данные...
Как и всегда.
Периодичность бэкапа = времени за которое вы согласны потерять данные.
День много ? Делайте чаще. Хоть раз в час, хоть в рантайме...
Проблемы тут в основном с БД, возможно как-то можно заставить инкрементный делать, не смотрел никогда.
В одном из моих проектов бэкапятся данные почти каждый час. Но их там немного совсем, к счастью.
Посмотрите в сторону Discourse. Как там сделана работа с базой. Как сохраняются бекапы, как происходят восстановления, с файлами и/или без и т.д. И как сделана система скачивание этих самых бекапов, даже если злоумышленнику получилось добыть данный от адм- интерфейса (не root) форума.
Я думаю, информация будет очень ценная. Тем более она опирается на Q&A сайт (Stack Exchange), и весь опыт администрирования Stack Exchange был перенесен в Discourse. Ваш вопрос на самом деле очень глубокий, он на книгу тянет... И ИМХО, желательно действительно опираться на опыт других, особенно если он есть. Посмотрите сами...
Если коротко, то с файлами или без, возможность отката, тайминг бекапов, создание дублей (там Docer - контейнеры), скачать по прямой ссылке и "через админку" не получится, 2ф- авторизация и т.д.