- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поэтому как уже выше писали желательно создавать бекапы ресурсами сервера, т.е. напрямую с консоли, либо в планировщике задач (cron), чтоб автоматом делало бекапы.
И крайне желательно создавать бэкапы двумя разными способами и хранить в двух разных местах (скажем один силами ISPManager на место предоставляемое хостером и один силами bareos в другой вообще дата-центр).
За много лет мне это понадобилось один раз, но я был счастлив от своей предусмотрительности :)
Поэтому как уже выше писали желательно создавать бекапы ресурсами сервера, т.е. напрямую с консоли, либо в планировщике задач (cron), чтоб автоматом делало бекапы.
или как я уже сказал утилитами вроде sypex dumper
шустрая штуковина, делал бекап базы за 1 секунду.
или как я уже сказал утилитами вроде sypex dumper
шустрая штуковина, делал бекап базы за 1 секунду.
Если база маленькая и сервер не нагружен, то может и за 1 секунду. А если база в десяток ГБ?
Если база маленькая и сервер не нагружен, то может и за 1 секунду. А если база в десяток ГБ?
я предлагаю как вариант
выше же сказали база 60 мег.
ща провел тесты, база 250 мегабайт
бес сжатия - за время 3 мин 30 сек
сжатие gzip 7 уровень - 24 сек. (на выходе файл 26 мегабайт)
через phpmyadmin бекап выполняется средствами вебсервера, а точнее посредством php у которого жестокие лимиты на выполнение процесса как по размеру, так и по процессорному времени. Т.е. если процесс создания бекапа не вложился в допустим 300 процессорных секунд (не путать с обычными секундами) то процесс обрывается и на выходе вы получаете архив в 36, 42 Мб, а не в реальных 62+, что при восстановление приведет к тому, что будет утрачена часть статей, а то и вовсе системные настройки.
Теперь понятно. Спасибо. Значит после бекапов буду сверять размер.
Поэтому как уже выше писали желательно создавать бекапы ресурсами сервера, т.е. напрямую с консоли, либо в планировщике задач (cron), чтоб автоматом делало бекапы.
Это всё сложно для меня, да не варианты для моей паранои.
Это всё сложно для меня, да не варианты для моей паранои.
Тогда как уже выше советовали - http://sypex.net/ru/products/dumper/downloads/ обычная версия.