Вы находитесь в опасности (скорее всего)!

edogs software
На сайте с 15.12.2005
Offline
775
#51
team-voice:
вы в глаза то хоть раз видели такие базы данных ? на 1 ТБ. ?

С появлением крипты их не видел только ленивый:)

Разработка крупных и средних проектов. Можно с криптой. Разумные цены. Хорошее качество. Адекватный подход. Продаем lenovo legion в спб, дешевле магазинов, новые, запечатанные. Есть разные. skype: edogssoft
team-voice
На сайте с 07.11.2016
Offline
225
#52
edogs:
С появлением крипты их не видел только ленивый:)

вот тут извиняюсь, крипты никогда не касался.

PS на счет бекапов я подразуумивал решения для конечника , клиента , у которого задача забекапить свой сайт/сайты и БД от них. Т.е. грубо на всё про все 10-50ГБ то что я описал не подходит для хостерской тематики (со стороны хостера)

https://team-host.ru/ (https://team-host.ru/) Выделенные сервера в аренду с DDoS защитой и без неё.
rustelekom
На сайте с 20.04.2005
Offline
523
#53

Момент с объёмом данных необходимых для восстановления - существенный. Я о нём тоже писал - мельком, но фанаты бэкапов решили для себя, что имея бэкапы в наличии (что, конечно, весьма похвально во всех случаях) можно не заморачиваться со скучной работой по поддержанию безопасности, закрытию уязвимостей и вообще любой работе в этом плане с серверами или сайтами. Я все же думаю, что нужно заботиться о текучке по секурности, потому что это даёт возможность бесперебойной работы сервисов или, уж по крайней мере, свести потенциальные даунтаймы к минимуму.

Естественно, что каждый должен выбирать стратегию работы исходя из собственных задач. VPS с каким-нибудь openvpn - вряд ли имеет смысл бэкапить, проще держать наготове конфиги с настройками и, в случае чего - проставить О/С, проставить опенвпн и заменить дефолтные конфиги на свои. От силы минут 20 займёт что вполне приемлемо. Для более существенных ресурсов, предусматриваются другие политики, вот к примеру как можно бэкапить сайт на VPS:

1) Делать локальные бэкапы с хранением в 1, 3, 7 дней и месяц. Пригодится для того, чтобы быстро поправить какие-либо ошибки сделанные на сайте, заменить хакнутый скрипт и т.п.

2) Их же копировать на удалённое хранилище и ротировать с большим периодом (неделя, месяц, несколько месяцев)

3) Раз в три месяца скачивать один из упомянутых бэкапов к себе на ПК или в отдельное хранилище.

За исключением пункта 3) все операции автоматизированы обычно, так что настроив это дело один раз, нужно будет только контролировать ход процесса раз в неделю или в месяц.

SSD VPS, SSD хостинг и выделенные серверы в Германии или РФ, FTP хранилища, регистрация доменов и SSL сертификаты ( https://www.robovps.biz/ ) Контакты: Telegram ( https://t.me/rustelekom_bot )
Sergey QWARTA
На сайте с 29.05.2004
Offline
137
#54
MIRhosting.com:
Вы говорите теорию и догадки, а я говорю практику. Не знаю правда почему Вы так уверенно говорите явно не имея опыта с такого рода решениями.

Откуда вы знаете какая у меня практика? :)

MIRhosting.com:
Инкремент бэкапы нагрузки не дают, в этом и прелесть.

Конечно не дают, вы пробовали сделать инкрементальный бэкап при 200-400 млн файлов - представляете себе сколько rsync съедает оперативки на сервере клиента при такой процедуре?

MIRhosting.com:
Никакого сравнения с прости господи tar czf based решениями это не имеет.

про то что надо делать бэкапы tar'ом я ниразу не писал

MIRhosting.com:
Сжимание и верификация делается на стороне бэкап сервера. Там же делаются мержи, архивации и что угодно еще.

Да блин сожмите 200-400 млн файлов плюс их инкременты!

MIRhosting.com:
MySQL бэкапится совсем иначе, делается типа слепок /var/lib/mysql, потом поднимается своего рода копия и оттуда уже делаются красивые дампы. Именно под Innodb это и заточено. Можете почитать тут подробнее

Зачем делать слепок потом его поднимать где-то, потом с него делать дамп, если можно перконой тот же слепок делать и его хранить?

MIRhosting.com:

Акронис - мы точно говорим про одну и ту же технологию? Я как бы не про всякие десктоп решения разумеется, а про заточенные под сервера и облака.

Я не фанат закрытых решений под линукс.

MIRhosting.com:
R1soft не продают лицензию и услуги конечным клиентам. Если интересно реально посмотреть как это работает - с удовольствием сделаю триал на месяц. С Вас - отзыв ;)

Да не нужно мне это у меня свой сервис бэкапов:) Зачем мне писать отзывы о чужих :)

---------- Добавлено 12.09.2019 в 22:48 ----------

team-voice:
вы в глаза то хоть раз видели такие базы данных ? на 1 ТБ. ?

Да видел, могу даже боллее точно сказать 6 серверов по 1.2 тб база MySQL при этом таблицы ещё и с сжатием ROW_FORMAT=COMPRESSED

MIRhosting.com
На сайте с 18.10.2006
Offline
203
#55
Drug:
Откуда вы знаете какая у меня практика? :)

По Вашим сообщениям. Практика использования CDP решений у вас не прослеживается.

Конечно не дают, вы пробовали сделать инкрементальный бэкап при 200-400 млн файлов - представляете себе сколько rsync съедает оперативки на сервере клиента при такой процедуре?

Первый прогон будет долгий. Потом будут бэкапиться только изменения бинарно. И да, оно знает какие файлы были изменены и не сканирует при каждом бэкапе все ваши миллионы. Или у вас каждый день новые 200-400 миллионов?

В этом кстати есть и свой минус этой технологии, например бэкапить образы вирт машин со стороны ноды смысла нет, они изменяются постоянно. Только изнутри вирт машины, чтобы оно видело именно файловую систему.

про то что надо делать бэкапы tar'ом я ниразу не писал

Ну так Вы и не написали, все правильно. А спросили как делать. Я ответил. Вы говорите - нет, все плохо, я знаю как лучше. Но как лучше не говорите 🙄

Да блин сожмите 200-400 млн файлов плюс их инкременты!

Я предложил попробовать :)

Зачем делать слепок потом его поднимать где-то, потом с него делать дамп, если можно перконой тот же слепок делать и его хранить?

Можно. Это создает нагрузку на файловую систему (нет дельт/изменений файловой системы и оно читает все подряд), бэкапы делаются долго, и хранятся в полном объеме.

Я не фанат закрытых решений под линукс.

Я тоже. Но подобного решения в open source нет.

Да не нужно мне это у меня свой сервис бэкапов:) Зачем мне писать отзывы о чужих :)

А зачем Вы тогда спрашиваете как бэкапить? 🙄

Андрей Нестеренко, MIRhosting Облачная платформа для DevOps (https://mirhosting.com/paas)
Sergey QWARTA
На сайте с 29.05.2004
Offline
137
#56
MIRhosting.com:
Первый прогон будет долгий. Потом будут бэкапиться только изменения бинарно. И да, оно знает какие файлы были изменены и не сканирует при каждом бэкапе все ваши миллионы. Или у вас каждый день новые 200-400 миллионов?

Так никто не спорит что второй прогон инкремент не большой будет для передачи его куда-либо.

Я поднимаю два вопроса:

1) Что делать если первый прогон просто не влезает в оперативку сервера из-за большого числа файлов?

2) Что делать если второй прогон передача данных будет не много - но просканировать 200-400 млн файлов на предмет изменений задача такая же ресурсоемкая и опять может скучать недостающей оперативки на сервере - ведь я уже сказал что сервер рабочий и под нагрузкой.

Я лично знаю только костыль, он работает хорошо, но не универсален и под каждого такого клиента приходится затачивать индивидуально.

MIRhosting.com:
А зачем Вы тогда спрашиваете как бэкапить? 🙄

Мне интересно кто как делает в сложных ситуациях бэкап, а не в рядовых. Я например знаю людей которые в таких ситуациях просто не делают бэкап вообще потому что при бэкапе сервер у них тупит, без бэкапа работает и так на пределе.

ENELIS
На сайте с 29.08.2008
Offline
194
#57
Drug:
Вот ответ на ваш вопрос


Если у вас база 100 мег в архиве, и файлов 1 гигобайт, то вариантов море вплоть до домашнего компа.

Но расскажите мне как правильно бэкапить при таких условиях (вопрос ко всем):
1) база MySQL 1 терабайт и постоянно обновляется и добавляются записи
2) файлов порядка 200-400 млн общим объемом 5 терабайт
3) При бэкапе не положить сервер дополнительной нагрузкой.
4) В ответе исключаем вариант - меняем сервер на сервер в 2-10 раз более производительный и тогда бэкап не влияет на рабочую нагрузку сервера.

P.S. Если кого интересует ответ пишите мне в личку, так как здесь это превратится в демагогию, и думаю ответа не дождемся:) *интригую*

Делаем активно уже 8 лет через ZFS без всяких проблем. Чтобы не ложило сервер используйте lz4 для трансферов

С Уважением, ServerAstra.ru (https://serverastra.com) - VPS и выделенные сервера в Будапеште по выгодным ценам!
MIRhosting.com
На сайте с 18.10.2006
Offline
203
#58
Drug:

Я поднимаю два вопроса:
1) Что делать если первый прогон просто не влезает в оперативку сервера из-за большого числа файлов?

Ну если это не 200 млн в одной папке, то обычно проблем это не вызывает. У нас есть на обслуживании одна +- известная файлопомойка, они когда к нам пришли на обслуживание, у них все складывалось чуть ли не в одну папку. Там были проблемы, и не только с бэкапами. После того как сделали нормальную иерархию - не слышал от админов о проблемах.

В любом случае, задача интересная, я бы пощупал.

Drug:

2) Что делать если второй прогон передача данных будет не много - но просканировать 200-400 млн файлов на предмет изменений задача такая же ресурсоемкая и опять может скучать недостающей оперативки на сервере - ведь я уже сказал что сервер рабочий и под нагрузкой.

А вот тут нет. Нет, не сканирует оно изменения. Только после ребута сервера, когда пропадают кеши. Или обновления агента / модуля. В нормальном режиме оно собирает изменения в момент этих самых изменений (через модуль ядра, что-то типа inotify условно говоря) и отсылает на бэкапилку только измененные дельты. Ему не надо пересчитывать все изменения.

Но в любом случае периодически надо делать полный бэкап, тут надо смотреть по факту во что и как упирается.

Условно говоря, если сервер работает на пределе ресурсов в свопе и любое действие приводит к его исчерпанию то тут проблема не в технологиях бэкапов :)

Sergey QWARTA
На сайте с 29.05.2004
Offline
137
#59
MIRhosting.com:
После того как сделали нормальную иерархию - не слышал от админов о проблемах.
В любом случае, задача интересная, я бы пощупал.

О, да в одной папке это ахтунг - знаком с этим :))

Тут я даже про бэкап не говорю, хотя наверное все равно делать бэкап и в таком запущенном случае нужно.

MIRhosting.com:
А вот тут нет. Нет, не сканирует оно изменения. Только после ребута сервера, когда пропадают кеши. Или обновления агента / модуля. В нормальном режиме оно собирает изменения в момент этих самых изменений (через модуль ядра, что-то типа inotify условно говоря) и отсылает на бэкапилку только измененные дельты. Ему не надо пересчитывать все изменения.

Это в случае демонов и того же акроникса и r1soft наверное, если же демона отслеживающего нет, то жопа, а таких жоп наверное 90% потому как локальные недоадмины просто пытаются обычным rsync это сделать и вот при нем и получают мега скан. И даже не rsync, а tar с архивированием.

MIRhosting.com:
Но в любом случае периодически надо делать полный бэкап, тут надо смотреть по факту во что и как упирается.
Условно говоря, если сервер работает на пределе ресурсов в свопе и любое действие приводит к его исчерпанию то тут проблема не в технологиях бэкапов :)

Но так часто и бывает к сожалению :) На апгрейд сервера денег нет или это сложно, или не хочется делать апгрейд сервера потому что ну пока вроде как хватает, а то что на бэкап задачу не хватает, ну значит бэкап - плохой. :)

ENELIS
На сайте с 29.08.2008
Offline
194
#60

П.С. многие упускают важную особенность DR, не только бекап, но и восстановимость этого самого бекапа.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий