我即将更换 4 SSD RAID 1 和 RAID10 系统中的单个 SSD。我的网络托管商只会更换驱动器,但不会帮助将其重新添加到阵列中。我以前没有这样做过,所以我正在研究并制定更换驱动器后要执行的计划。
系统中似乎有 3 个阵列,md0(raid 1)、md1(raid 1)和 md2(raid 10)
[root@w1 ~]# cat /proc/mdstat
Personalities : [raid1] [raid10]
md1 : active raid1 sdd2[3] sdc2[2] sda2[0] sdb2[1]
523264 blocks super 1.2 [4/4] [UUUU]
md2 : active raid10 sdb3[1] sda3[0] sdd3[3] sdc3[2]
927996928 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 6/7 pages [24KB], 65536KB chunk
md0 : active raid1 sdd1[3] sda1[0] sdb1[1] sdc1[2]
4189184 blocks super 1.2 [4/4] [UUUU]
unused devices: <none>
/dev/sdd
是即将发生故障并需要更换的驱动器。
以下是我的计划。你发现有什么错误或问题吗?
1. MARK /dev/sdd AS FAULTY
mdadm /dev/md0 -f /dev/sdd1
mdadm /dev/md1 -f /dev/sdd2
mdadm /dev/md2 -f /dev/sdd3
2. REMOVE /dev/sdd FROM ARRAYS
mdadm /dev/md0 -r /dev/sdd1
mdadm /dev/md1 -r /dev/sdd2
mdadm /dev/md2 -r /dev/sdd3
3. TAKE SYSTEM OFFLINE, REPLACE DRIVE, BOOT BACK INTO CENTOS ---
4. CHECK STATUS OF ARRAYS AFTER DISK REPLACEMENT
cat /proc/mdstat
mdadm --detail /dev/md0
mdadm --detail /dev/md1
mdadm --detail /dev/md2
5. COPY PARTITION TABLE
sfdisk -d /dev/sdc | sfdisk /dev/sdd
6. ADD NEW DISC BACK TO ARRAYS
mdadm --manage /dev/md0 --add /dev/sdd1
mdadm --manage /dev/md1 --add /dev/sdd2
mdadm --manage /dev/md2 --add /dev/sdd3
7. CHECK STATUS, see if it's resyncing
cat /proc/mdstat
我的问题:
md0 和 md1 是 RAID 1,md2 是 RAID 10,这有关系吗?
我是否忘记了什么或者犯了什么错误
答案1
1,就你的情况来说,不是。
2、从 md 的角度来看,这个计划是可行的。但想想启动。您当前的启动驱动器是什么?所有驱动器都可以启动吗?在关机前在每个驱动器上执行 grub-install /dev/sdX,在关机后执行 grub-install /dev/sdd 是个好主意。