我正在向 4 驱动器 raid 5 mdadm 阵列添加一个新驱动器。在此过程中,新驱动器与原来的 4 个正常工作的驱动器之一一起被标记为有故障。
通过查看日志,我发现此错误是由于原始驱动器 (sde1) 发生故障而导致的,新驱动器 sdf1 也位于同一个 pci 卡上。我想知道问题是否出在这张卡上而不是驱动器上。
21:59:49 kernel: [ 4339.536403] sd 6:0:0:0: [sde] tag#29 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
在此之前,该阵列已经可以读取,并且 4 个驱动器均未报告任何错误。
当前 mdadm 状态操作似乎停滞,速度不断下降
移除 mdadm 标记为失败的磁盘(sde1 和 sdf)后
Version : 1.2
Creation Time : Fri Jan 16 18:36:21 2015
Raid Level : raid5
Array Size : 8790406656 (8383.19 GiB 9001.38 GB)
Used Dev Size : 2930135552 (2794.40 GiB 3000.46 GB)
Raid Devices : 5
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Jan 15 21:25:18 2018
State : clean, FAILED, reshaping
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Reshape Status : 0% complete
Delta Devices : 1, (4->5)
Name : :0 (local to host )
UUID : 4d3400aa:55dc5281:293e9722:46ad27b5
Events : 418999
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
3 8 49 2 active sync /dev/sdd1
- 0 0 3 removed
- 0 0 4 removed
我的问题是,如果重塑完成,我是否正在等待无法恢复的数组?
Mdadm 正在尝试使用 3 个驱动器将 4 个磁盘阵列扩展为 5 个磁盘阵列.... 仅 3 个驱动器上就应该有足够的奇偶校验数据来恢复我的阵列,还是说扩展过程是否已经毁掉了它?
速度一直在下降,我甚至不确定该进程是否仍在运行
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdd1[3] sda1[0] sdb1[1]
8790406656 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUU__]
[>....................] reshape = 0.2% (6104064/2930135552) finish=53459.5min speed=911K/sec
bitmap: 2/22 pages [8KB], 65536KB chunk
unused devices: <none>