导入的 Linux raid(raid 5)组装正常但无法访问数据

导入的 Linux raid(raid 5)组装正常但无法访问数据

这个设置有点复杂。

我有来自另一个 Linux 系统的三个 8TB 驱动器的图像,其中包含 md raid-5 设置。

我已将这些图像作为物理驱动器 (physicaldrive5、6、7) 安装到 Windows 中。

我已将它们作为带有 Linux Mint 客户操作系统的只读物理驱动器添加到 VMware 工作站。

在虚拟机上启动 Mint 后,我​​可以在 /dev/md0 上成功组装 raid(只读)。

但是,任何尝试读取 /dev/md0 上的数据都会导致输入/输出错误。

$ sudo mdadm -A -R -o --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/md0 has been started with 3 drives.
$ ls /proc/mdstat
/proc/mdstat
$ cat !$
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active (read-only) raid5 sdb1[0](F) sdd1[3](F) sdc1[1](F)
      15627786240 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/0] [___]
      bitmap: 0/59 pages [0KB], 65536KB chunk

unused devices: <none>
$ sudo mdadm --detail --test /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Fri Dec  2 22:16:42 2022
        Raid Level : raid5
        Array Size : 15627786240 (14.55 TiB 16.00 TB)
     Used Dev Size : 7813893120 (7.28 TiB 8.00 TB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Mar 19 14:28:36 2024
             State : clean, FAILED 
    Active Devices : 0
    Failed Devices : 3
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       -       0        0        2      removed

       0       8       17        -      faulty   /dev/sdb1
       1       8       33        -      faulty   /dev/sdc1
       3       8       49        -      faulty   /dev/sdd1
$ sudo file /dev/md0
/dev/md0: block special (9/0)
$ hexdump /dev/md0 | more
hexdump: /dev/md0: Input/output error
$ 

我可以看到状态不干净。我需要清理它吗?

对于我可能做错了什么或如何进入这次突袭,任何建议都值得感激。

相关内容