- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу взять сервер 4 Tb для того что бы перенести на него 2 Tb файлов. В основном это картинки, с какими трудностями я столкнусь, реально ли это?
rsync справится легко. если там не 100500 файлов в одной директории. но собственно если и 100500, то тоже лучше варианта не найти.
Я и поболее переносил с помощью команды mc
Сервера были оба в Германии (хоть и разные хостеры) скорость была около 100 мб/сек
Но быстрее все же будет сделать архив и перести его - чем отдельно каждый файл.
Но быстрее все же будет сделать архив и перести его - чем отдельно каждый файл.
Лучший вариант. По файлам долго и можно накосячить. Архив надежнее.
Но с учетом объема, лучше в несколько этапов, архивами по 0.5-1тб, что бы гарантированно не было проблем с местом.
для этого предназначен rsync в многопоточном режиме с контролем целостности файлов.
Но быстрее все же будет сделать архив и перести его - чем отдельно каждый файл.
Нет, это будет на порядки дольше, т.к. картинки не сожмутся, т.е. объем передаваемых данных не уменьшатся. На обычных hdd (врятли у тс ssd таких размеров) запаковка/заспаковка займет хз сколько дней.
---------- Добавлено 20.06.2018 в 13:48 ----------
Лучший вариант. По файлам долго и можно накосячить. Архив надежнее.
Но с учетом объема, лучше в несколько этапов, архивами по 0.5-1тб, что бы гарантированно не было проблем с местом.
rsync с файлами не накосячит, он контролирует целостность, а вот побить 1 большой архив, который будет неделю передаваться - вероятность очень высокая, я б даже сказал гарантированно побьется.
по 1,5 тб картинок рсинком копировал и потом синхронизировал вообще без проблем.
для этого предназначен rsync в многопоточном режиме с контролем целостности файлов.
Но те кто им сможет с уверенностью правильно воспользоваться - таких топиков не создают. Архив проще и для одного переноса более подходит ввиду этого.
побить 1 большой архив, который будет неделю передаваться - вероятность очень высокая, я б даже сказал гарантированно побьется.
Побить архив. 2тб неделю передаваться. В отдалении послышался звук диалапа, пахнуло 90-тыми:)
На самом деле если бы у ТС это была не разовая задача - мы бы согласились, но для разовой задачи - архив проще и надежнее.
edogs, ТС ничего не писал про выделенный гб/с на обоих серверах. Зато из того что он хочет взять всего лишь 4 тб диск есть подозрение, что сейчас 2 тб данных лежат на диске поменьше, а значит там нету еще лишних 3 тб диска для создания архива и временных файлов.
Нет, это будет на порядки дольше, т.к. картинки не сожмутся, т.е. объем передаваемых данных не уменьшатся. На обычных hdd (врятли у тс ssd таких размеров) запаковка/заспаковка займет хз сколько дней.
Будет однозначно быстрее, проверено много раз. Смысл ведь не в том чтобы уменьшить размер, а в том - чтобы не делать запросы на прием/передачу для каждого из много тысяч файлов.
Запаковка 25 гигов вот букально недавно командой tar -cvf 1.gz /var/www заняло примерно 15 минут.
Повторюсь - смысл не сжать, а объединить!
Не очень понятно как получить выигрышь в скорости при архивации по сравнению с многопоточным решением. С многопоточным ограничивает обычно пропускная способность канала... от архивирования фоток она больше не станет.
Открывать файлы со стороны "отсылки", и создавать их там где они должны оказаться придется по-любому. Только времени на переписывание в архив и из него потеряете...
места, действительно, нет для создания архива. rsync использовал когда-то, там было около 500 Гб. Сейчас сайты разрослись и решил подстраховаться спросив совета. Буду пробовать.