Восстановить software raid10 (2/4 дисков рабочие)

T0
На сайте с 25.12.2014
Offline
0
908

Рабочими остались диски sda и sdc, на другие диски смарт выдает ошибки..

root@debian:~# cat /proc/mdstat

Personalities : [raid1] [raid10]

md3 : inactive sdb5[2] sdc5[5](S) sdd5[4]

8619992839 blocks super 1.2

md2 : active (auto-read-only) raid10 sdc4[1] sda4[5](S) sdd4[4] sdb4[2]

15622144 blocks super 1.2 512K chunks 2 near-copies [4/3] [_UUU]

md1 : active raid10 sda3[5] sdd3[4] sdb3[2] sdc3[1]

97653760 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md0 : active raid1 sda2[5] sdd2[4] sdb2[2] sdc2[1]

292957 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>

-------------------------------------------------------------------

root@debian:~# mdadm -D /dev/md3

/dev/md3:

Version : 1.2

Creation Time : Wed Sep 18 19:27:47 2013

Raid Level : raid10

Used Dev Size : -1

Raid Devices : 4

Total Devices : 3

Persistence : Superblock is persistent

Update Time : Thu Dec 25 23:52:07 2014

State : active, FAILED, Not Started

Active Devices : 2

Working Devices : 3

Failed Devices : 0

Spare Devices : 1

Layout : near=2

Chunk Size : 512K

Name : debian:3 (local to host debian)

UUID : 28af78a6:d9928577:1fb8e78a:8b1bfaed

Events : 878909

Number Major Minor RaidDevice State

0 0 0 0 removed

1 0 0 1 removed

2 8 21 2 active sync /dev/sdb5

4 8 53 3 active sync /dev/sdd5

5 8 37 - spare /dev/sdc5

Есть шансы восстановить инфу? Кто возьмется? Писать в ЛС

N
На сайте с 06.05.2007
Offline
419
#1
Tap0k:
Есть шансы восстановить инфу?

Не понятно стоит ли вообще браться.

Опишите подробнее последовательность действий. Какие диски заменяли вообще ? почему sdc5 как spare? почему остальные массивы собраны ?

Состояние явно не исходное сразу после поломки. Вы что-то пытались сделать .

Если sdc не один и тех дисков, которые были изначально и если на нем не сохранилась исходная информация - сейчас точно нельзя собрать.

При стандартной раскладке layout=near 2 из дисков 0 и 1 для старта массива должен быть доступен хотя бы один. У вас их обоих нет.

Кнопка вызова админа ()
T0
На сайте с 25.12.2014
Offline
0
#2

Делали смарт, увидели, что на первых двух дисках были ошибки, решили сменить.. Поменяли первый диск - сервак начал жеско глючить.. Попросили вернуть старый диск (славо богу нашли), результат такой же - диск битый, но ОС загрузилась. Решили поставить оба старых дисках (в ДЦ переставили местами их), в итоге mdamd начал восстанавливаться.. md0-2 восстановились, md3 стал в иннактивед.. пишет не удаеться прочитать суперблоки.

Сейчас диски вернули как они и были - результат такой же.

root@debian:~# mdadm -D /dev/md3

/dev/md3:

Version : 1.2

Creation Time : Wed Sep 18 19:27:47 2013

Raid Level : raid10

Used Dev Size : -1

Raid Devices : 4

Total Devices : 4

Persistence : Superblock is persistent

Update Time : Thu Dec 25 23:52:07 2014

State : active, FAILED, Not Started

Active Devices : 2

Working Devices : 4

Failed Devices : 0

Spare Devices : 2

Layout : near=2

Chunk Size : 512K

Name : debian:3 (local to host debian)

UUID : 28af78a6:d9928577:1fb8e78a:8b1bfaed

Events : 878909

Number Major Minor RaidDevice State

0 0 0 0 removed

1 0 0 1 removed

2 8 37 2 active sync /dev/sdc5

4 8 53 3 active sync /dev/sdd5

5 8 21 - spare /dev/sdb5

6 8 5 - spare /dev/sda5

T0
На сайте с 25.12.2014
Offline
0
#3

Диски менялись местами. Восстановить реально диски в отдельности? Пишет не читаются суперблоки..

T0
На сайте с 25.12.2014
Offline
0
#4

Вот так выглядит вывод mke2fs:

mke2fs 1.41.12 (17-May-2010)

/dev/sda5 alignment is offset by 3072 bytes.

This may result in very poor performance, (re)-partitioning suggested.

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

Stride=1 blocks, Stripe width=0 blocks

179585024 inodes, 718332992 blocks

35916649 blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=4294967296

21922 block groups

32768 blocks per group, 32768 fragments per group

8192 inodes per group

Superblock backups stored on blocks:

32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,

4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,

102400000, 214990848, 512000000, 550731776, 644972544

Но резервные копии суперблока не получается использовать, все время пишет

The superblock could not be read or does not describe a correct ext2

filesystem. If the device is valid and it really contains an ext2

filesystem (and not swap or ufs or something else), then the superblock

is corrupt, and you might try running e2fsck with an alternate superblock:

e2fsck -b 8193 <device>

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий