在 Synology DSM 7 中恢复 Raid

在 Synology DSM 7 中恢复 Raid

DSM 更新后,Synology 品牌缓存驱动器的问题导致我的池崩溃并不可用。底部的 3 个点只有删除池的选项,没有启用读/写或修复卷的选项。我联系了 Synology 支持,一周后,他们能够将池恢复为只读模式,这样我就可以备份我的数据了。

远程访问启用这么长时间让我感到不安,因此在我开始备份数据后,缓存的缺失和它提供的改进开始让我恼火。我重新添加了缓存,这就是我真正的问题开始的地方。经过一整天的故障排除后,我想记录如何在 DSM 7 上恢复池,以防您遇到类似的困境。

在遵循一些 raid 论坛上的建议后,我将驱动器标记为故障,并从阵列中移除了一个驱动器,然后重新添加它,但这只会让我的问题更加严重!结果如下:

Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid5 sda5[6](S) sdb5[1](E) sdf5[5](E) sde5[4](E) sdd5[3](E) sdc5[2](E)
      87837992640 blocks super 1.2 level 5, 64k chunk, algorithm 2 [6/5] [_EEEEE]

md1 : active raid1 sdg2[1]
      2097088 blocks [12/1] [_U__________]

md0 : active raid1 sdg1[1]
      2490176 blocks [12/1] [_U__________]

不过看起来很糟糕,mdadm -D /dev/md2 reported a much better results:

#mdadm -D /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Fri Aug  5 22:03:13 2022
     Raid Level : raid5
     Array Size : 87837992640 (83768.84 GiB 89946.10 GB)
  Used Dev Size : 17567598528 (16753.77 GiB 17989.22 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Wed May 17 21:46:40 2023
          State : clean
 Active Devices : 5
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

           Name : File01:2
           UUID : 9ef80d24:68ea4c4f:3b281ebe:790302f5
         Events : 1454

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       21        1      faulty active sync   /dev/sdb5
       2       8       37        2      faulty active sync   /dev/sdc5
       3       8       53        3      faulty active sync   /dev/sdd5
       4       8       69        4      faulty active sync   /dev/sde5
       5       8       85        5      faulty active sync   /dev/sdf5

       6       8        5        -      spare   /dev/sda5

更糟糕的是,DSM 7 更改了底层代码,因此像这样的命令 syno_poweroff_task -d不再存在!我们会花相当多的时间来找到解决方案,希望这能帮助那些急需帮助的人。

以下是如何重建阵列的方法:

我的阵列有 2 个卷,阻止我停止阵列,并且必须使用新的 synology 包卸载它们

# synostgvolume --unmount -p /volume1
# synostgvolume --unmount -p /syno_vg_reserved_area 
# synovspace -all-unload

这将使数组看起来像这样:不活跃&无法使用就是你要找的

#lvm
lvm> lvscan
  inactive          '/dev/vg2/syno_vg_reserved_area' [12.00 MiB] inherit
  inactive          '/dev/vg2/volume_1' [81.80 TiB] inherit 

lvm> lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg2/syno_vg_reserved_area
  LV Name                syno_vg_reserved_area
  VG Name                vg2
  LV UUID                2E1szd-mdDP-4kkJ-YIcF-zh1B-t3t3-1hq1Ct
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              NOT available
  LV Size                12.00 MiB
  Current LE             3
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

  --- Logical volume ---
  LV Path                /dev/vg2/volume_1
  LV Name                volume_1
  VG Name                vg2
  LV UUID                scFIlA-VoSt-KhC1-WP0u-DYBl-3IfY-Nrc4Cj
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              NOT available
  LV Size                81.80 TiB
  Current LE             21444608
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto 

现在,您可以发出 assemble 命令来恢复阵列,如果一切顺利,您的阵列将开始重建。尽管我搞砸了,没有添加最后一个驱动器 :( 以立即恢复我的阵列。

# mdadm --stop /dev/md2
# mdadm --verbose    --create /dev/md2 --chunk=64 --level=5    --raid-devices=6 missing dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5 /dev/sdf5 
# mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Wed May 17 22:36:29 2023
     Raid Level : raid5
     Array Size : 87837992640 (83768.84 GiB 89946.10 GB)
  Used Dev Size : 17567598528 (16753.77 GiB 17989.22 GB)
   Raid Devices : 6
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Wed May 17 22:36:29 2023
          State : clean, degraded
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : Morpheous:2  (local to host Morpheous)
           UUID : 96f5e08a:d64e6b15:97240cc1:54309926
         Events : 1

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       21        1      active sync   /dev/sdb5
       2       8       37        2      active sync   /dev/sdc5
       3       8       53        3      active sync   /dev/sdd5
       4       8       69        4      active sync   /dev/sde5
       5       8       85        5      active sync   /dev/sdf5

最后重新添加备用件,大功告成!

mdadm --manage /dev/md2 --add /dev/sda5  
cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid5 sda5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      87837992640 blocks super 1.2 level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU]
      [>....................]  recovery =  0.0% (4341888/17567598528) finish=3980.8min speed=73531K/sec

md1 : active raid1 sdg2[1]
      2097088 blocks [12/1] [_U__________]

md0 : active raid1 sdg1[1]
      2490176 blocks [12/1] [_U__________]  

希望这对将来的某人有所帮助。

答案1

在 DSM 7 中,卸载文件系统的方法如下:

# synostgvolume --unmount -p /volume1
# synostgvolume --unmount -p /syno_vg_reserved_area 
# synovspace -all-unload

停止阵列并重建阵列:

# mdadm --stop /dev/md2
# mdadm --verbose    --create /dev/md2 --chunk=64 --level=5    --raid-devices=6 missing dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5 /dev/sdf5 

相关内容