这个设置有点复杂。
我有来自另一个 Linux 系统的三个 8TB 驱动器的图像,其中包含 md raid-5 设置。
我已将这些图像作为物理驱动器 (physicaldrive5、6、7) 安装到 Windows 中。
我已将它们作为带有 Linux Mint 客户操作系统的只读物理驱动器添加到 VMware 工作站。
在虚拟机上启动 Mint 后,我可以在 /dev/md0 上成功组装 raid(只读)。
但是,任何尝试读取 /dev/md0 上的数据都会导致输入/输出错误。
$ sudo mdadm -A -R -o --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/md0 has been started with 3 drives.
$ ls /proc/mdstat
/proc/mdstat
$ cat !$
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active (read-only) raid5 sdb1[0](F) sdd1[3](F) sdc1[1](F)
15627786240 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/0] [___]
bitmap: 0/59 pages [0KB], 65536KB chunk
unused devices: <none>
$ sudo mdadm --detail --test /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Dec 2 22:16:42 2022
Raid Level : raid5
Array Size : 15627786240 (14.55 TiB 16.00 TB)
Used Dev Size : 7813893120 (7.28 TiB 8.00 TB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Mar 19 14:28:36 2024
State : clean, FAILED
Active Devices : 0
Failed Devices : 3
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
0 8 17 - faulty /dev/sdb1
1 8 33 - faulty /dev/sdc1
3 8 49 - faulty /dev/sdd1
$ sudo file /dev/md0
/dev/md0: block special (9/0)
$ hexdump /dev/md0 | more
hexdump: /dev/md0: Input/output error
$
我可以看到状态不干净。我需要清理它吗?
对于我可能做错了什么或如何进入这次突袭,任何建议都值得感激。