DyaDya

DyaDya
Рейтинг
147
Регистрация
11.04.2007
bums:
просто архив wget'ом качнул и делов то. Даже если по какой то причине оборвется, то wget отлично умеет докачивать, просто добавляешь опцию "-c".
Лишь бы места на новом хосте хватило потом растарить архив.

Ок, на счёт докачки терь ясно куда зрить. Просто возникла проблем-с с размером файла - на свеб запрещено закачивать файл размером более 600 мегабайт! Ограничение такое-вот. Раньше на него не нарывался я). Терь буду спрашивать у каждого хостера об этом, прежде, чем работать с ним начинать ;).

Подали заявку сисадмину свеба. Но отработал он её как-то криво, собрал наш многотомный архив и распаковал криво как-то. Получилась какая-то хрень при распаковке, кучи файлов не хватает и т.п. Не знаю, как он это распаковывал)).

Так как 2 дня уже парюсь с этим сайтом, а по выходным админ не работает, то решили нафиг забить на это и просто купить на hc.ru опцию "Турбо 2". Которая увеличивает все ресурсы тарифа в два раза (и цену за хостинг тоже ;). И хрен с ней. Зато сайт уже работает.

root:
ведь у Вас есть доступ по SSH - если примерно прикидываете, сколько весят папки - какое-то кол-во папок залейте в архив1.zip

В этом и проблема, что есть одна папка, в которой только картинки и лежат. Вот она и весит больше 1 гига! Нужно видимо, в mc что ли, просто выделять часть картинок и заливать в отдельную папку. Потом её архивировать и заливать на свеб.ру и так 3 папки где-то мегов по 500 получится.

root:
P.S.кстати - а каждый архив при splite невозможно разве просто распаковать? если запаковвывать без сжатия?

Фик знает. В техподдержке мне ничего не посоветовали (. Сказали лишь, что с кириллическими файлами на у нас на свебе, могут быть проблемы с совместимостью.

r0mik:
rsync, scp -r, sshfs (костыль, имхо не нужно) позволяют скопировать файлы мелкие, то есть не пакуя все в один архив... и это не работает что ли, в частности rsync?

Мелкие файлы копирует без проблем. Даже не очень мелкие, типа по 500 мегоф хорошо идут. По файлам мелким замучаюсь качать - их тыщ 20. А копирование сразу директории не пашет. Как сказали в техподдержке sweb.ru, в данном случае по вине hc.ru отрубается перекачка(. Но до тех что-то достучаться мне не удалось. Поэтому кто виноват, ищу у зеркала).

bugsmoran:
apt-get install sshfs
sshfs user@ip-address:/path /mnt
mv /mnt/* /local/path/*

Понимаю, что разжёвывать не хочется), но желательно для дураков с комментариями бы...

Типа монтируется директория как диск? И потом с ней можно работать как с локальным диском? Но подозреваю, что если она весит больше 600 мегов, то не дадут примонитровать))).

Electronn:
из директорию в директорию копируются файлы по одному, ошибки при таком ограничении быть не может.

Логично. Когда файл был большой, то обрывал соединение принимающий сервер (хостинг www.sweb.ru), так как ограничение на 600 мегов! (

Когда стал перекачивать директорию напрямую с хостинга на хостинг через SSH, то всё равно немного скачивается и ошибка вываливается. Правда, уже другая). Теперь отдающий хостинг стал ругаться (хостинг www.hc.ru). Почему-то ему не понравилось такое копирование.

В общем влип).

А когда сливаю файлы с хостинга себе на комп, то чувствую что названия бьются(. Так как есть названия картинок кириллицей. И при использовании промежуточного звена под виндой всё слетает походу. На сервере назначения, эти картинки сайт уже не видит.

Во косяк. Я только что подумал, а как же быть с бекапами?)))) Если файл максимум 600 мегов, то не верю, что они будут бекап бить на части))). Щаз узнаю...

Ответили:

бекапы создаются под рутовским доступом, поэтому на него ограничения не действуют.

Значит админ всё-таки мог собрать мои части в один файл архива на 1.5 гига и развернуть сайт))). Только ему это нафиг ненужно. Он один, а нас много)).

firstman:
Какой известный движок не поддерживает php 5.3??

Например, любимая многими Joomla. Самая последняя версия джумлы может и будет корректно работать на php 5.3, её я ещё не пробовал. А предыдущие точно косячат.

hutasl, да, пробовал что-то подобное, думал прокатит. Нифига! Всё равно ошибки лезут.

А сайты все проверили на работоспособность?

По слухам, 60% сайтов лягут при переходе на PHP 5.3.!!! Потребуется адаптация кода!

Наврали значит мне). Оки, пойду гуглить про rsync. Спс.

DyaDya добавил 21.10.2010 в 14:22

Откопал,

rsync -avP ФАЙЛ ЮЗЕР@ХОСТ:ДИРЕКТОРИЯ_КУДА_КОПИРОВАТЬ

Начал качать, опять на 40% уже такой косяк:

rsync: writefd_unbuffered failed to write 4092 bytes to socket [sender]: Broken pipe (32)
rsync error: received SIGINT, SIGTERM, or SIGHUP (code 20) at rsync.c(276) [receiver=2.6.9]
rsync: connection unexpectedly closed (74 bytes received so far) [generator]
rsync error: error in rsync protocol data stream (code 12) at io.c(458) [generator=2.6.9]
rsync: connection unexpectedly closed (170207 bytes received so far) [sender]
rsync error: error in rsync protocol data stream (code 12) at io.c(609) [sender=3.0.6]

Запустил повторно, вроде, пошло докачивать... только что-то медленно слишком стало).

Хотя нет, вру, опять слетело. Запустил снова, с нуля начинает!

Подскажите, какие параметры нужно указать, чтобы rsync запустить в режиме докачки?

DyaDya добавил 21.10.2010 в 14:33

Даже не понятно кто ругается, то ли хостинг назначения, то ли тот, с которого идёт копирование.

DyaDya добавил 21.10.2010 в 15:33

Во блин, оказалось, что это ограничение на sweb.ru - к ним можно закачать файл с максимальным размером 600 мегабайт. Поэтому 1.5 гига закачиваются только частично и обрубает. Только странно, что закачивается аж до 56% - это же порядка 0.8 гига где-то (больше 600 мег, но всё равно не хватает :))

Говорят, что один файл нужно бить на части и закачивать мелкими порциями.

Теперь вопрос, как разбить архив tar на 3 части. А потом как его распаковать на новом сервере? Может быть кто в курсе?

DyaDya добавил 21.10.2010 в 16:57

Ок, раз никто не знает, я продолжу...

Разбить архив можно с помощью tar split, например,

split -b 1000m distfiles.tar distfiles.split.tar

В итоге вы получите много файликов типа:

distfiles.split.taraa

distfiles.split.tarab

distfiles.split.tarai

100m означает 100 мегабайт. Можете написать 100k - это будет 100 киллобайт.

Всё бы хорошо. Но собрать обратно их можно вот, вроде, так:

cat distfiles.split.tar* | tar zxvf -

Но есть загвоздка, что мне нельзя собирать всё в промежуточный файл размером больше 600 мегов! Как-то обойти этот можно? Т.е. чтобы он не собирался в один файл, а сразу распаковывался?)

DyaDya добавил 21.10.2010 в 18:03

Контрольный вопрос? А можно ли копировать не готовый архив 1.5, а просто указать директорию на скачивание?!

Как это можно сделать, кто может подсказать формат команды?

DyaDya добавил 21.10.2010 в 18:04

p.s. какого фига я не могу редактировать свои сообщения?! ;)

Всего: 2917