DSM 更新后,Synology 品牌缓存驱动器的问题导致我的池崩溃并不可用。底部的 3 个点只有删除池的选项,没有启用读/写或修复卷的选项。我联系了 Synology 支持,一周后,他们能够将池恢复为只读模式,这样我就可以备份我的数据了。
远程访问启用这么长时间让我感到不安,因此在我开始备份数据后,缓存的缺失和它提供的改进开始让我恼火。我重新添加了缓存,这就是我真正的问题开始的地方。经过一整天的故障排除后,我想记录如何在 DSM 7 上恢复池,以防您遇到类似的困境。
在遵循一些 raid 论坛上的建议后,我将驱动器标记为故障,并从阵列中移除了一个驱动器,然后重新添加它,但这只会让我的问题更加严重!结果如下:
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid5 sda5[6](S) sdb5[1](E) sdf5[5](E) sde5[4](E) sdd5[3](E) sdc5[2](E)
87837992640 blocks super 1.2 level 5, 64k chunk, algorithm 2 [6/5] [_EEEEE]
md1 : active raid1 sdg2[1]
2097088 blocks [12/1] [_U__________]
md0 : active raid1 sdg1[1]
2490176 blocks [12/1] [_U__________]
不过看起来很糟糕,mdadm -D /dev/md2 reported a much better results:
#mdadm -D /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Fri Aug 5 22:03:13 2022
Raid Level : raid5
Array Size : 87837992640 (83768.84 GiB 89946.10 GB)
Used Dev Size : 17567598528 (16753.77 GiB 17989.22 GB)
Raid Devices : 6
Total Devices : 6
Persistence : Superblock is persistent
Update Time : Wed May 17 21:46:40 2023
State : clean
Active Devices : 5
Working Devices : 6
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : File01:2
UUID : 9ef80d24:68ea4c4f:3b281ebe:790302f5
Events : 1454
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 21 1 faulty active sync /dev/sdb5
2 8 37 2 faulty active sync /dev/sdc5
3 8 53 3 faulty active sync /dev/sdd5
4 8 69 4 faulty active sync /dev/sde5
5 8 85 5 faulty active sync /dev/sdf5
6 8 5 - spare /dev/sda5
更糟糕的是,DSM 7 更改了底层代码,因此像这样的命令 syno_poweroff_task -d
不再存在!我们会花相当多的时间来找到解决方案,希望这能帮助那些急需帮助的人。
以下是如何重建阵列的方法:
我的阵列有 2 个卷,阻止我停止阵列,并且必须使用新的 synology 包卸载它们
# synostgvolume --unmount -p /volume1
# synostgvolume --unmount -p /syno_vg_reserved_area
# synovspace -all-unload
这将使数组看起来像这样:不活跃&无法使用就是你要找的
#lvm
lvm> lvscan
inactive '/dev/vg2/syno_vg_reserved_area' [12.00 MiB] inherit
inactive '/dev/vg2/volume_1' [81.80 TiB] inherit
lvm> lvdisplay
--- Logical volume ---
LV Path /dev/vg2/syno_vg_reserved_area
LV Name syno_vg_reserved_area
VG Name vg2
LV UUID 2E1szd-mdDP-4kkJ-YIcF-zh1B-t3t3-1hq1Ct
LV Write Access read/write
LV Creation host, time ,
LV Status NOT available
LV Size 12.00 MiB
Current LE 3
Segments 1
Allocation inherit
Read ahead sectors auto
--- Logical volume ---
LV Path /dev/vg2/volume_1
LV Name volume_1
VG Name vg2
LV UUID scFIlA-VoSt-KhC1-WP0u-DYBl-3IfY-Nrc4Cj
LV Write Access read/write
LV Creation host, time ,
LV Status NOT available
LV Size 81.80 TiB
Current LE 21444608
Segments 1
Allocation inherit
Read ahead sectors auto
现在,您可以发出 assemble 命令来恢复阵列,如果一切顺利,您的阵列将开始重建。尽管我搞砸了,没有添加最后一个驱动器 :( 以立即恢复我的阵列。
# mdadm --stop /dev/md2
# mdadm --verbose --create /dev/md2 --chunk=64 --level=5 --raid-devices=6 missing dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5 /dev/sdf5
# mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Wed May 17 22:36:29 2023
Raid Level : raid5
Array Size : 87837992640 (83768.84 GiB 89946.10 GB)
Used Dev Size : 17567598528 (16753.77 GiB 17989.22 GB)
Raid Devices : 6
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Wed May 17 22:36:29 2023
State : clean, degraded
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : Morpheous:2 (local to host Morpheous)
UUID : 96f5e08a:d64e6b15:97240cc1:54309926
Events : 1
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 85 5 active sync /dev/sdf5
最后重新添加备用件,大功告成!
mdadm --manage /dev/md2 --add /dev/sda5
cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid5 sda5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
87837992640 blocks super 1.2 level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU]
[>....................] recovery = 0.0% (4341888/17567598528) finish=3980.8min speed=73531K/sec
md1 : active raid1 sdg2[1]
2097088 blocks [12/1] [_U__________]
md0 : active raid1 sdg1[1]
2490176 blocks [12/1] [_U__________]
希望这对将来的某人有所帮助。
答案1
在 DSM 7 中,卸载文件系统的方法如下:
# synostgvolume --unmount -p /volume1
# synostgvolume --unmount -p /syno_vg_reserved_area
# synovspace -all-unload
停止阵列并重建阵列:
# mdadm --stop /dev/md2
# mdadm --verbose --create /dev/md2 --chunk=64 --level=5 --raid-devices=6 missing dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5 /dev/sdf5