mdadm raid10 centos 7

L
На сайте с 13.01.2011
Offline
125
1650

стоит софт райд 10 из 4 дисков hetzner - умер /dev/sda


cat /proc/mdstat
Personalities : [raid10] [raid1]
md2 : active raid10 sda3[0](F) sdd3[3] sdc3[2] sdb3[1]
11651572736 blocks super 1.2 512K chunks 2 near-copies [4/3] [_UUU]
bitmap: 45/87 pages [180KB], 65536KB chunk

md0 : active raid1 sdd1[3] sda1[0](F) sdc1[2] sdb1[1]
33521664 blocks super 1.2 [4/3] [_UUU]

md1 : active raid1 sdc2[2] sda2[0](F) sdd2[3] sdb2[1]
1047552 blocks super 1.2 [4/3] [_UUU]

раздел с данными raid10


mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Sun Mar 27 15:17:09 2016
Raid Level : raid10
Array Size : 11651572736 (11111.81 GiB 11931.21 GB)
Used Dev Size : 5825786368 (5555.90 GiB 5965.61 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Tue Jun 7 17:18:33 2016
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0

Layout : near=2
Chunk Size : 512K

Name : rescue:2
UUID : 85a7a4e8:2da2fb33:f3f720b6:9a5d0752
Events : 1207209

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 19 1 active sync set-B /dev/sdb3
2 8 35 2 active sync set-A /dev/sdc3
3 8 51 3 active sync set-B /dev/sdd3

0 8 3 - faulty /dev/sda3

раздел /boot raid1


mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Mar 27 15:17:09 2016
Raid Level : raid1
Array Size : 1047552 (1023.17 MiB 1072.69 MB)
Used Dev Size : 1047552 (1023.17 MiB 1072.69 MB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Tue Jun 7 06:22:27 2016
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0

Name : rescue:1
UUID : ec8f0c4e:1a162aff:42eab737:5d244630
Events : 131

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
3 8 50 3 active sync /dev/sdd2

0 8 2 - faulty /dev/sda2

раздел swap raid1


mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Mar 27 15:17:08 2016
Raid Level : raid1
Array Size : 33521664 (31.97 GiB 34.33 GB)
Used Dev Size : 33521664 (31.97 GiB 34.33 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Mon Jun 6 00:19:51 2016
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0

Name : rescue:0
UUID : c7032254:598f8dc6:8ded7f96:c6d87f1b
Events : 130

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1

0 8 1 - faulty /dev/sda1

не подскажете как добавить чистый диск /dev/sda в райд с учетом выше указанного ?

диски размечены GPT

по https://wiki.hetzner.de/index.php/Festplattenaustausch_im_Software-RAID/ru

если бы был raid1 - то просто при выходе из строя /dev/sda(копирование таблицы разделов с sdb на sda)


sgdisk -R /dev/sda /dev/sdb

в случае с raid 10 не знаю как правильно

Контакты-icq 535609 ()
Оптимизайка
На сайте с 11.03.2012
Offline
396
#1

Также, как и в случае с raid 1. Размечаете идентично другим дискам, ставите соотв. тип раздела, и все само должно начать синхронизироваться, если нет - вручную протолкнуть (mdadm --manage -a).

P.S. Хетцнер нормально определяет, какой диск вышел из строя, т.е. у них там физически есть отметки, кто sda, а кто sdb, чтобы не выдернуть не тот диск?

⭐ BotGuard (https://botguard.net) ⭐ — защита вашего сайта от вредоносных ботов, воровства контента, клонирования, спама и хакерских атак!
Andreyka
На сайте с 19.02.2005
Offline
822
#2

В Hetzner надо сообщить серийник умершего диска

Не стоит плодить сущности без необходимости
L
На сайте с 13.01.2011
Offline
125
#3

почти так же оказалось, с небольшими отличиями:

в rescue


sgdisk -R /dev/sda /dev/sdb
sgdisk -G /dev/sda
mdadm /dev/md1 -a /dev/sda2
mdadm /dev/md0 -a /dev/sda1
mdadm /dev/md2 -a /dev/sda3

mkdir /mnt/boot
mount /dev/md2 /mnt/
mount --bind /dev /mnt/dev/
mount --bind /proc /mnt/proc/
mount --bind /sys /mnt/sys/
mount /dev/md1 /mnt/boot
chroot /mnt /bin/bash

grub2-install /dev/sda
grub2-mkconfig --output=/boot/grub2/grub.cfg

в итоге получил

/usr/sbin/grub2-probe: warning: Couldn't find physical volume `(null)'. Some modules may be missing from core image..

оказалось


In other words, this strange error occurs when you have degraded RAID arrays, and should disappear (which it did in your case) once your arrays are functioning properly.

When my RAID arrays finally finished syncing, the error disappeared on both update-grub and grub-install.

подождал окончания ресинка и команды выполнились уже без ошибок


grub2-install /dev/sda
grub2-install /dev/sdb
grub2-mkconfig --output=/boot/grub2/grub.cfg

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий