MD,部分从 RAID1 增长到 RAID5,但被中断,磁盘被移除,现在文件系统一片混乱

MD,部分从 RAID1 增长到 RAID5,但被中断,磁盘被移除,现在文件系统一片混乱

我知道我做了一些愚蠢的举动才导致陷入这种境地,请不要提醒我,也不要问为什么 :-/

我有这个 Synology DS1515+,带有 2x6TB SHR 驱动器,这意味着 MD RAID1,顶部有 LVM。

在开始从 RAID1 到 RAID5 的转换、中止它并摆弄磁盘后,我的 ext4 文件系统无法安装。

有没有可能,系统只是因为多次重启和移除磁盘而“困惑”,现在将整个磁盘空间视为 RAID5 卷,即使从 RAID1 到 RAID5 的转换仅完成了约 10%?如果是这样,如果我添加第三个磁盘并让 RAID 阵列重建,您认为我有机会修复文件系统吗?或者它只是重建为具有与现在完全相同数据的逻辑卷,即其上的文件系统已损坏?

我有点好奇实际的转换过程是如何进行的,因为 MD 和/或 LVM 必须知道块设备的哪些部分应该被视为 RAID5 或 RAID1,直到整个空间都转换为 RAID5。有谁对此有更多了解?

提前感谢你的帮助:-)

这是我所做的。(到目前为止,我的救援尝试和日志条目列在下面)

  1. 将新的 6 TB 磁盘热插拔到 NAS 中。

  2. 告诉 Synology 的 UI 将磁盘添加到我现有的卷并将其扩大到 12TB(使其成为 3x6TB RAID5)

  3. 关闭 NAS(立即关闭 -P)并将其中的几个驱动器移除。 NAS 启动正常,但报告我的卷已降级。它仍报告 6 TB 文件系统,所有内容仍可访问。

  4. 再次热插拔磁盘 3,擦除它并在其上创建另一个单磁盘卷。

  5. 关闭 NAS,移除磁盘 2(这是一个错误!)并打开电源。 它开始发出哔哔声并告诉我我的音量已崩溃。

  6. 再次关闭 NAS 并重新插入丢失的磁盘 2。 但 Synology 仍然报告该卷崩溃,并且没有提供修复选项。

所以,我的所有数据现在都不可用!

我开始调查这个问题。看起来 MD 正在按应有的方式组装阵列:

 State : clean, degraded
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : DiskStation:2  (local to host DiskStation)
           UUID : 58290cba:75757ee2:86fe074c:ada2e6d2
         Events : 31429

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5
       2       0        0        2      removed

并且两个原始磁盘上的元数据看起来也很好:

Device Role : Active device 0
Array State : AA. ('A' == active, '.' == missing)

Device Role : Active device 1
Array State : AA. ('A' == active, '.' == missing)

LVM 还识别 RAID5 卷并公开其设备:

--- Logical volume ---
LV Path                /dev/vg1000/lv
LV Name                lv
VG Name                vg1000

但是当我尝试以只读方式挂载 /dev/vg1000/lv 上的文件系统时,它似乎已损坏:

mount: wrong fs type, bad option, bad superblock on /dev/vg1000/lv, missing codepage or helper program, or other error (for several filesystems (e.g. nfs, cifs) you might need a /sbin/mount.<type> helper program)  
In some cases useful info is found in syslog - try dmesg | tail or so.

所以,我现在有一个损坏的文件系统,我相信它是无法修复的(请参阅下面我的尝试列表)。

以下是我迄今为止尝试过的步骤:

将 /dev/vg1000/lv 克隆到空硬盘上的分区并运行 e2fsck 在我中断它之前,我已经运行了这个过程一个星期。它发现了数百万个有故障的 inode 和多重声明的块等,并且由于存在如此多的 FS 错误,我相信它不会带回任何有用的数据,即使它有一天完成。

将包含数据的两个硬盘移到 USB 底座中,并将其连接到 Ubuntu 虚拟机,并制作覆盖设备来捕获所有写入(使用 dmsetup)

首先,我尝试重新创建 RAID 阵列。我首先找到使用与 mdadm -E 相同的参数创建阵列的命令,然后尝试切换顺序,看看结果是否不同(即 sda、missing、sdb、sda、sdb、missing、missing、sdb、sda)。6 种组合中有 4 种使 LVM 检测到卷组,但文件系统仍然损坏。

使用 R-Studio 组装阵列并搜索文件系统

这实际上给出了一些结果 - 它能够扫描并找到我组装的 RAID 卷上的 EXT4 文件系统,我可以浏览文件,但文件查看器中仅显示我的实际文件的子集(例如 10 个)。我尝试切换设备顺序,虽然 4 种组合使 R-Studio 检测到 ext4 文件系统(就像上面一样),但只有原始设置(sda、sdb、丢失)才使 R-studio 能够从驱动器的根目录中发现任何文件。

尝试使用 -o sb=XXXXX 进行挂载,指向另一个超级块

这给了我与未指定超级块位置相同的错误。

尝试过 debugfs

当我输入“ls”时,出现了 IO 错误

以下是导致问题的上述操作的日志消息。

关闭以降级 RAID5 运行的系统,但文件系统仍在运行。

2017-02-25T18:13:27+01:00 DiskStation umount: kill the process "synoreport" [pid = 15855] using /volume1/@appstore/StorageAnalyzer/usr/syno/synoreport/synoreport
2017-02-25T18:13:28+01:00 DiskStation umount: can't umount /volume1: Device or resource busy
2017-02-25T18:13:28+01:00 DiskStation umount: can't umount /volume1: Device or resource busy
2017-02-25T18:13:28+01:00 DiskStation umount: SYSTEM:   Last message 'can't umount /volume' repeated 1 times, suppressed by syslog-ng on DiskStation
2017-02-25T18:13:28+01:00 DiskStation syno_poweroff_task: lvm_poweroff.c:49 Failed to /bin/umount -f -k /volume1
2017-02-25T18:13:29+01:00 DiskStation syno_poweroff_task: lvm_poweroff.c:58 Failed to /sbin/vgchange -an
2017-02-25T18:13:29+01:00 DiskStation syno_poweroff_task: raid_stop.c:28 Failed to mdadm stop '/dev/md2'
2017-02-25T18:13:29+01:00 DiskStation syno_poweroff_task: syno_poweroff_task.c:331 Failed to stop RAID [/dev/md2]

留意“无法停止 RAID”——这是导致问题的可能原因吗?

删除磁盘 2 (sdb) 后的首次启动

2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.467975] set group disks wakeup number to 5, spinup time deno 1
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.500561] synobios: unload
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.572388] md: invalid raid superblock magic on sda5
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.578043] md: sda5 does not have a valid v0.90 superblock, not importing!
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.627381] md: invalid raid superblock magic on sdc5
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.633034] md: sdc5 does not have a valid v0.90 superblock, not importing!
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.663832] md: sda2 has different UUID to sda1
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.672513] md: sdc2 has different UUID to sda1
2017-02-25T18:15:27+01:00 DiskStation kernel: [   10.784571] Got empty serial number. Generate serial number from product.


2017-02-25T18:15:41+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md3
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.339243] md/raid:md2: not enough operational devices (2/3 failed)
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.346371] md/raid:md2: raid level 5 active with 1 out of 3 devices, algorithm 2
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.355295] md: md2: set sda5 to auto_remap [1]
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.355299] md: reshape of RAID array md2
2017-02-25T18:15:41+01:00 DiskStation spacetool.shared: spacetool.c:1223 Try to force assemble RAID [/dev/md2]. [0x2000 file_get_key_value.c:81]
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.414839] md: md2: reshape done.
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.433218] md: md2: set sda5 to auto_remap [0]
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.494964] md: md2: set sda5 to auto_remap [0]
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.549962] md/raid:md2: not enough operational devices (2/3 failed)
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.557093] md/raid:md2: raid level 5 active with 1 out of 3 devices, algorithm 2
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.566069] md: md2: set sda5 to auto_remap [1]
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.566073] md: reshape of RAID array md2
2017-02-25T18:15:41+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md2
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.633774] md: md2: reshape done.
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.645025] md: md2: change number of threads from 0 to 1
2017-02-25T18:15:41+01:00 DiskStation kernel: [   31.645033] md: md2: set sda5 to auto_remap [0]
2017-02-25T18:15:41+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1000], New vg path: [/dev/vg1000], UUID: [Fund9t-vUVR-3yln-QYVk-8gtv-z8Wo-zz1bnF]
2017-02-25T18:15:41+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1001], New vg path: [/dev/vg1001], UUID: [FHbUVK-5Rxk-k6y9-4PId-cSMf-ztmU-DfXYoL]

2017-02-25T18:22:50+01:00 DiskStation umount: can't umount /volume2: Invalid argument
2017-02-25T18:22:50+01:00 DiskStation syno_poweroff_task: lvm_poweroff.c:49 Failed to /bin/umount -f -k /volume2
2017-02-25T18:22:50+01:00 DiskStation kernel: [  460.374192] md: md2: set sda5 to auto_remap [0]
2017-02-25T18:22:50+01:00 DiskStation kernel: [  460.404747] md: md3: set sdc5 to auto_remap [0]
2017-02-25T18:28:01+01:00 DiskStation umount: can't umount /initrd: Invalid argument

再次启动,磁盘 2 (sdb) 再次出现

2017-02-25T18:28:17+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md3
2017-02-25T18:28:17+01:00 DiskStation kernel: [   32.442352] md: kicking non-fresh sdb5 from array!
2017-02-25T18:28:17+01:00 DiskStation kernel: [   32.478415] md/raid:md2: not enough operational devices (2/3 failed)
2017-02-25T18:28:17+01:00 DiskStation kernel: [   32.485547] md/raid:md2: raid level 5 active with 1 out of 3 devices, algorithm 2
2017-02-25T18:28:17+01:00 DiskStation spacetool.shared: spacetool.c:1223 Try to force assemble RAID [/dev/md2]. [0x2000 file_get_key_value.c:81]
2017-02-25T18:28:17+01:00 DiskStation kernel: [   32.515567] md: md2: set sda5 to auto_remap [0]
2017-02-25T18:28:18+01:00 DiskStation kernel: [   32.602256] md/raid:md2: raid level 5 active with 2 out of 3 devices, algorithm 2
2017-02-25T18:28:18+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md2
2017-02-25T18:28:18+01:00 DiskStation kernel: [   32.654279] md: md2: change number of threads from 0 to 1
2017-02-25T18:28:18+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1000], New vg path: [/dev/vg1000], UUID: [Fund9t-vUVR-3yln-QYVk-8gtv-z8Wo-zz1bnF]
2017-02-25T18:28:18+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1001], New vg path: [/dev/vg1001], UUID: [FHbUVK-5Rxk-k6y9-4PId-cSMf-ztmU-DfXYoL]
2017-02-25T18:28:18+01:00 DiskStation spacetool.shared: spacetool.c:3030 [Info] Activate all VG

2017-02-25T18:28:18+01:00 DiskStation synovspace: virtual_space_conf_check.c:78 [INFO] "PASS" checking configuration of virtual space [FCACHE], app: [1]
2017-02-25T18:28:18+01:00 DiskStation synovspace: virtual_space_conf_check.c:74 [INFO] No implementation, skip checking configuration of virtual space [HA]
2017-02-25T18:28:18+01:00 DiskStation synovspace: virtual_space_conf_check.c:74 [INFO] No implementation, skip checking configuration of virtual space [SNAPSHOT_ORG]
2017-02-25T18:28:18+01:00 DiskStation synovspace: vspace_wrapper_load_all.c:76 [INFO] No virtual layer above space: [/volume2] / [/dev/vg1001/lv]
2017-02-25T18:28:18+01:00 DiskStation synovspace: vspace_wrapper_load_all.c:76 [INFO] No virtual layer above space: [/volume1] / [/dev/vg1000/lv]
2017-02-25T18:28:19+01:00 DiskStation kernel: [   33.792601] BTRFS: has skinny extents
2017-02-25T18:28:19+01:00 DiskStation kernel: [   34.009184] JBD2: no valid journal superblock found
2017-02-25T18:28:19+01:00 DiskStation kernel: [   34.014673] EXT4-fs (dm-0): error loading journal
mount: wrong fs type, bad option, bad superblock on /dev/vg1000/lv,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
quotacheck: Mountpoint (or device) /volume1 not found or has no quota enabled.
quotacheck: Cannot find filesystem to check or filesystem not mounted with quota option.
quotaon: Mountpoint (or device) /volume1 not found or has no quota enabled.
2017-02-25T18:28:19+01:00 DiskStation synocheckhotspare: synocheckhotspare.c:149 [INFO] No hotspare config, skip hotspare config check. [0x2000 virtual_space_layer_get.c:98]
2017-02-25T18:28:19+01:00 DiskStation synopkgctl: pkgtool.cpp:3035 package AudioStation is not installed or not operable

请注意,它首先说 3 个设备中有 1 个存在,但随后强制组装它,因此 RAID 阵列被组装,然后尝试安装它但出现 EXT4 安装错误。

这次经历后尝试过重启,但没有帮助

2017-02-25T18:36:45+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md3
2017-02-25T18:36:45+01:00 DiskStation kernel: [   29.579136] md/raid:md2: raid level 5 active with 2 out of 3 devices, algorithm 2
2017-02-25T18:36:45+01:00 DiskStation spacetool.shared: raid_allow_rmw_check.c:48 fopen failed: /usr/syno/etc/.rmw.md2
2017-02-25T18:36:45+01:00 DiskStation kernel: [   29.629837] md: md2: change number of threads from 0 to 1
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1000], New vg path: [/dev/vg1000], UUID: [Fund9t-vUVR-3yln-QYVk-8gtv-z8Wo-zz1bnF]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3023 [Info] Old vg path: [/dev/vg1001], New vg path: [/dev/vg1001], UUID: [FHbUVK-5Rxk-k6y9-4PId-cSMf-ztmU-DfXYoL]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3030 [Info] Activate all VG
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3041 Activate LVM [/dev/vg1000]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3041 Activate LVM [/dev/vg1001]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3084 space: [/dev/vg1000]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3084 space: [/dev/vg1001]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3110 space: [/dev/vg1000], ndisk: [2]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: spacetool.c:3110 space: [/dev/vg1001], ndisk: [1]
2017-02-25T18:36:46+01:00 DiskStation spacetool.shared: hotspare_repair_config_set.c:36 Failed to hup synostoraged
2017-02-25T18:36:46+01:00 DiskStation synovspace: virtual_space_conf_check.c:78 [INFO] "PASS" checking configuration of virtual space [FCACHE], app: [1]
2017-02-25T18:36:46+01:00 DiskStation synovspace: virtual_space_conf_check.c:74 [INFO] No implementation, skip checking configuration of virtual space [HA]
2017-02-25T18:36:46+01:00 DiskStation synovspace: virtual_space_conf_check.c:74 [INFO] No implementation, skip checking configuration of virtual space [SNAPSHOT_ORG]
2017-02-25T18:36:46+01:00 DiskStation synovspace: vspace_wrapper_load_all.c:76 [INFO] No virtual layer above space: [/volume2] / [/dev/vg1001/lv]
2017-02-25T18:36:46+01:00 DiskStation synovspace: vspace_wrapper_load_all.c:76 [INFO] No virtual layer above space: [/volume1] / [/dev/vg1000/lv]
2017-02-25T18:36:47+01:00 DiskStation kernel: [   30.799110] BTRFS: has skinny extents
2017-02-25T18:36:47+01:00 DiskStation kernel: [   30.956115] JBD2: no valid journal superblock found
2017-02-25T18:36:47+01:00 DiskStation kernel: [   30.961585] EXT4-fs (dm-0): error loading journal
mount: wrong fs type, bad option, bad superblock on /dev/vg1000/lv,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
quotacheck: Mountpoint (or device) /volume1 not found or has no quota enabled.
quo

答案1

在彻底破坏不断增长的 RAID5 之后,我如何挽救我的数据!

我有一个 3 磁盘 RAID5 阵列,其中设备编号 3 丢失,并且数据似乎已损坏。

/dev/sdd5:(5.45 TiB)6TB,阵列的设备 1

/dev/sde5:(5.45 TiB)6TB,阵列的设备 2

阵列正在从 RAID1 转换为 RAID5,这时操作被中断,设备 3 被移除。阵列仍在运行,直到设备 2 也被移除。当设备 2 放回原位时,文件系统无法挂载。/dev/md2 设备被克隆,并在克隆的分区上运行 fsck,发现数百万个错误。

在转换中断和移除磁盘后,MD 显然没有正确处理 RAID 数据。我去调查发生了什么:

首先,我查看了一下/var/log/space_operation_error.log,它告诉我到底发生了什么。一旦磁盘 2 被移除,RAID 的状态就会变为损坏,因为 3 磁盘 RAID5 无法用 1 个磁盘运行。但这也让 RAID 忘记了它正在从 RAID1 重塑为 RAID5。

因此,我认为数据损坏可能是由于 MD 将整个数据视为 RAID5 编码,而其中一部分仍处于原始状态所致。

检查设备的 RAID 数据对我没有帮助,一切看起来都很好:

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md124 : active raid5 sda5[0] sdb5[1]
      11711575296 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_]

# mdadm -E /dev/sda5
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 58290cba:75757ee2:86fe074c:ada2e6d2
           Name : DiskStation:2
  Creation Time : Thu Nov 27 11:35:34 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 11711575680 (5584.51 GiB 5996.33 GB)
     Array Size : 23423150592 (11169.03 GiB 11992.65 GB)
  Used Dev Size : 11711575296 (5584.51 GiB 5996.33 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 1a222812:ac39920b:4cec73c4:81aa9b63

    Update Time : Fri Mar 17 23:14:25 2017
       Checksum : cb34324c - correct
         Events : 31468

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA. ('A' == active, '.' == missing)

但我认为它必须有某种计数器,以便在重塑时跟踪其进度。我研究了 MD 超级块的格式,如下所述: https://raid.wiki.kernel.org/index.php/RAID_superblock_formats

我复制了其中一个 RAID 分区的前 10 MiB(mdadm -E 在较小的副本上不起作用):

# dd if=/dev/sda5 of=/volume1/homes/sda5_10M.img bs=1M count=10
10+0 records in
10+0 records out
10485760 bytes (10 MB) copied, 0.0622844 s, 168 MB/s

我在十六进制编辑器中打开它,并将字节 4104 处的数据从 0x00 更改为 0x04,以表明重塑正在进行中。

改变状态

我还注意到从 4200 开始的 8 个字节的值。它读取的是 3856372992。

重塑位置

保存更改后,我检查了副本:

# mdadm -E /volume1/homes/sda5_10M.img
/volume1/homes/sda5_10M.img:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x4
     Array UUID : 58290cba:75757ee2:86fe074c:ada2e6d2
           Name : DiskStation:2
  Creation Time : Thu Nov 27 11:35:34 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 11711575680 (5584.51 GiB 5996.33 GB)
     Array Size : 23423150592 (11169.03 GiB 11992.65 GB)
  Used Dev Size : 11711575296 (5584.51 GiB 5996.33 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 1a222812:ac39920b:4cec73c4:81aa9b63

  Reshape pos'n : 1928186496 (1838.86 GiB 1974.46 GB)
  Delta Devices : 1 (2->3)

    Update Time : Fri Mar 17 23:14:25 2017
       Checksum : cb34324c - expected cb343250
         Events : 31468

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA. ('A' == active, '.' == missing)

如您所见,它报告了重塑进度的准确位置 - 这也告诉我之前得到的数字是 512 字节扇区的数量。

现在知道了前 1838.86 GiB 在重塑过程中被覆盖,我认为其余分区未受影响。

因此,我决定组装一个块设备,从新的 RAID5 部分和未触及的部分开始,在报告的 respape 位置处切割(阅读下面关于假设位置的说明)。由于数据偏移量为 2048 个扇区,我需要将 1024KiB 添加到大小,以获取原始分区部分的偏移量:

#losetup -f --show /dev/md124 --sizelimit=1928186496K
/dev/loop0

#losetup -f --show /dev/sda5 --offset=1928187520K 
/dev/loop1

为了组装各个部件,我创建了一个没有元数据的 JBOD 设备:

# mdadm --build --raid-devices=2 --level=linear /dev/md9 /dev/loop0 /dev/loop1
mdadm: array /dev/md9 built and started.

然后我检查了新的 /dev/md9 设备的内容

# file -s /dev/md9
/dev/md9: LVM2 PV (Linux Logical Volume Manager), UUID: xmhBdx-uED6-hN53-HOeU-ONy1-29Yc-VfIDQt, size: 5996326551552

由于 RAID 包含 LVM 卷,我需要跳过前 576KiB 才能进入 ext4 文件系统:

# losetup -f --show /dev/md9 --offset=576K
/dev/loop2

# file -s /dev/loop2
/dev/loop2: Linux rev 1.0 ext4 filesystem data, UUID=8e240e88-4d2b-4de8-bcaa-0836f9b70bb5, volume name "1.42.6-5004" (errors) (extents) (64bit) (large files) (huge files)

现在我将文件系统安装到 NAS 上的共享文件夹中:

# mount -o ro,noload /dev/loop2 /volume1/homes/fixraid/

我的文件就可以访问了!

在决定上面使用的位置大小/偏移量之前,我尝试了几个值。我的第一个想法是,由于每个设备的 1838.86 GiB 被重塑,RAID5 部分将包含约 3.6 TiB 的有效数据,我使用的位置是重塑位置的两倍。它安装得很好,但我的一些文件似乎包含无效数据,一些文件在读取时出现 I/O 错误,一些文件夹丢失了。

由于我有很多 NEF(尼康)格式的 RAW 照片,因此我决定使用文件工具对其中一些进行测试。

预期结果:

# file DSC_7421.NEF
DSC_7421.NEF: TIFF image data, little-endian, direntries=28, height=120, bps=352, compression=none, PhotometricIntepretation=RGB, manufacturer=NIKON CORPORATION, model=NIKON D750, orientation=upper-left, width=160

数据损坏时的结果:

# file DSC_9974.NEF
DSC_9974.NEF: data

ls当我在某些文件夹中写入时,我也遇到了一些 I/O 错误。

我决定查看一些大型照片集并测试它们的完整性 - 首先列出文件并计算输出中的行数。然后应将任何读取错误写入屏幕。接下来,通过检查是否有任何 NEF 文件无法识别,指示数据损坏。我过滤了文件的输出并计算了过滤后的行数。

# ls *.NEF -1 | wc -l
3641
# file *.NEF | grep "NEF: data" | wc -l
0

我对我的许多照片文件夹都执行了此操作,以确保所有文件均可读且其内容可被识别。

使用 3856372992K 大小和 3856374016K 偏移量,我得到了很多无效数据和丢失的文件/文件夹,并且我尝试了其他几个值。

我发现上面提到的偏移量和大小似乎通过了我的小测试。!

如上所示,文件系统报告了一些错误。由于我不想在恢复所有内容之前将任何数据写入我的设备,因此我决定制作快照写入覆盖,因此 fsck.ext4 进行的所有写入都将写入此文件。

创建一个 50GiB 稀疏文件

# truncate /volume1/overlay.img -s50G

创建虚拟设备

#losetup -f --show /volume1/overlay.img 
/dev/loop3

通过数据获取设备的大小:

# blockdev --getsz /dev/loop2
11711574528

创建覆盖设备(在此之前,我已卸载了 /dev/loop2 处的文件系统)

# dmsetup create overlay --table "0 11711574528 snapshot /dev/loop2 /dev/loop3 P 8"

该设备可在/dev/mapper/overlay

最后我可以检查并修复错误:

# fsck.ext4 -y -C 0 /dev/mapper/overlay

请注意,修复仅写入覆盖文件,如果它们是永久的,则需要提交到物理磁盘。

相关内容