- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
sypex dumper pro никто не называл?
TF-Studio,
Мы аналогичное делали на заказ года 3 назад:) Работало с директадмин, цпанель и пятком популярных цмс-ок специализированно. Но проект не пошел по 2 основным причинам.
1) "Внезапно" выяснилось, что если хостинг более или менее приличный - система бакапа у него есть, а если совсем приличный - то и ssh будет для rsync всяких или это вообще вдс окажется. Если же хостинг УГ, на котором этого нет, то значит владелец сайта нищеброд очень экономный человек которого жаба задушит платить за скрипт бакапа поэтому денег на этом не заработаешь. И это заметьте, 3 года назад было, когда хостинг приличный хоть каких-то денег стоил.
2) Количество типов глюков на г-нохостингах превосходило всякие разумные размеры - начиная от ограничений (таймауты, коннекты, нагрузка, баны ИП, траффик, скорость) и заканчивая банальной работой чего-нибудь не по стандартам (вплоть до реализации фтп протокола через *** так, что работает только на половине клиентов). Из-за чего 90% времени уходило на адаптацию скрипта под каждый очередной баг.
В общем не окупало себя даже просто по себестоимости, а если нормо-часы на доработку включить в расчеты - вообще одно разорение было. Поэтому если для себя и для своего бизнеса - не советуем заморачиваться.
Закрытый исходный код + платность продукта (тут дело не в 10уе, во избежании срача очередного пишу).
+ на сколько я помню, он только БД копирует, и только локально.
Есть ещё и такая тема: /ru/forum/730356
Там тоже есть про бекап, но тут идея - несколько иная.
edogs, как я понимаю, у вас было более сложное решение.
Я же пропагандирую простые подходы.
Открыли соединение, скачали файл и все, делов-то ))
Но если готовы поделиться частью разработок - возможно они смогут пригодиться )))
Тут, скорее всего, банальное непонимание, я просто не умею излагать, я предпочитаю факты по списку и основная идея в голове.
К примеру на мастерхосте - беда с бекапами.
Читать что ли разучились или последствия пятницы сказываются ранние?
пЕсатели же :)
Почему по 1 файлу не дергать, а именно архивом?
Потому что элементарно запаришься* (скрипт\сервак в см). На счёт этого правильно говорили. Архив однозначно. (думаешь просто так что ли все бекаперы в архив складывают файлы?)
А ещё хостеры могут рассказать почему большое кол-во файлов на сервере - зло и как это ограничивается
*Вот у меня прямо сейчас вторые сутки бекапится 500гб винт на десктопе (другой комп). Без архивирования, но с чексуммой :). И когда закончиться - хз. )
Да, как по мне - сложность в том, что бы сделать рабочее решение при малых значениях set_time_limit. Не знаю как оно сделано в уже упоминавшемся ВПшном плаге, но там это реализовано. (есть и др, долгоработающие плаги. Вчера буквально парчку юзазал для регенерации тубм). Я подозреваю - рекурсивный вызов.
ежесуточное архивирование 6гигового дампа - в состоянии положить сервер (проверено), к тому же ISP (встроенные инструменты) не в состоянии нормально отправить этот бекап, ручками я его за 2 дня скачал (пофайлово)
Так что нужна золотая середина.
если файлов будет много, долго будет качать - за это время данные могут быть уже изменены и/или не актуальны...
по мне, по фтп залили скрипты zip-ера и дампера, сделали архивы, скачали по фтп/http, удалили скрипты.. но тут подводных камней будет столько же сколько и хостеров...
если для своих сайтов, можно сделать - раз настроил, проверил работает или нет... подкрутил... и спи спокойно...
если же для общественности, гиблое дело.. $ больше потратите чем заработаете...
Что все так за бабки-то переживают...
Давайте этот аспект оставим в покое.
Пару примеров - можно?
если же для общественности,
У меня такое ощущение, что мало кто в топике понимает о том, что TF-Studio не сервис, а скрипт и не продавать, а раздавать хочет.
Пару примеров - можно?
Ну как минимум скрипт должен иметь права на создание файлов.
Потом - если выгружать на сторонний ФТП: пхп должно быть сконфигурировано с поддержкой ФТП. С мылом тоже нюансы. С дробоксами\облаками - тоже.
Но это не значит, что подобный скрипт не нужен :) Большинство проблем легко решаемы. Ведь юзать скрипт будут не блондинки :)
Кста, у меня давно витает идейка, сходная с твоей. Я, пожалуй, тебе завтра маякну, если ты не против. ;)
Всё же идея с архива натыкается на безопасность.
Там, где разрешена запись deny from all
В остальном запись недоступна (кроме саповской папки)
Потому, тогда, пока сделаем пофайлово, а дальше видно будет.
маякни, я за светлые идеи, если они имеют пользу
TF-Studio на lftp не смотрели? Что-то типа синхронизации по фтп (и не только, указаны несколько протоколов), но только для файлов. Простенький баш скрипт из пяти строк и:
по крону подключается по одному из протоколов к серверу, сверяет файлы на удаленном сервере с локальной копией файлов (при первом запуске, конечно, придется подождать, пока скачаются все файлы), что нужно удаляет, докачивает - одним словом синхронизирует. Потом можно упаковать получившуюся папку в архив. Поддерживает многопоточность.
С mysql базами - уже упомянутый Sypex по крону можно настроить (тут никуда не деться, для каждого хостинга отдельно настраивать придется), либо открытый аналог http://sourceforge.net/projects/mysqldumper/.