我的 Synology(10 个磁盘)突然无法重新启动。
将它连接到串行端口后,我可以在“Synology 1”和“Synology 2”上启动
Synology 1 是一种“恢复分区”,可让您使用 Synology 助手恢复您的 DSM。
Synology 2 是默认启动选项,可在您的 DSM 上启动。就我而言,synology 服务器无法启动。
我有一个由 10 个磁盘组成的 raid 5。
如何恢复
答案1
我通过这种方式找到了解决方案。
我删除了所有磁盘,并格式化了其中一个磁盘(最好使用新磁盘。我有备份,所以这样做不会冒太大风险),使用
- 分开
- mk标签 gpt
- 写
- 辞职
我将这唯一的磁盘插入 Synology 服务器的最后一个插槽。然后重新启动它。此时 Synology Assistant 能够安装新的 dsm 版本。
安装 dsm 后,我选择不配置 raid。([https://www.synology.com/en-us/knowledgebase/DSM/tutorial/General/如何重置您的SynologyNAS])重新启动 Synology。
重新启动后,我添加了 9 个其他旧磁盘并通过 ssh 连接到我的 synology。
查找磁盘上的 raid 信息
bash-4.3# mdadm --examine /dev/sd[a-z]
mdadm: No md superblock detected on /dev/sda.
mdadm: No md superblock detected on /dev/sdb.
mdadm: No md superblock detected on /dev/sdc.
mdadm: No md superblock detected on /dev/sdd.
mdadm: No md superblock detected on /dev/sde.
mdadm: No md superblock detected on /dev/sdf.
mdadm: No md superblock detected on /dev/sdg.
mdadm: No md superblock detected on /dev/sdh.
mdadm: No md superblock detected on /dev/sdi.
mdadm: No md superblock detected on /dev/sdj
这些是 DSM 配置的 raid,因此在我的磁盘上没有找到任何东西
bash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md1 : active raid1 sdj2[0]
2097088 blocks [10/1] [U_________]
md0 : active raid1 sdj1[0]
2490176 blocks [10/1] [U_________]
尝试使用扫描选项组建突袭
bash-4.3# mdadm --assemble --scan
似乎有效!
bash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
2490176 blocks [10/9] [UUUUUUUUU_]
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
2097088 blocks [10/9] [UUUUUUUUU_]
md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]
md1 : active raid1 sdj2[0]
2097088 blocks [10/1] [U_________]
md0 : active raid1 sdj1[0]
2490176 blocks [10/1] [U_________]
unused devices: <none>
现在,我希望能够发起突袭。
我将尝试安装 raid md127,因为它似乎是最大的(包含我的数据)
bash-4.3# mkdir /volume_restore
bash-4.3# mount /dev/md127 /volume_restore/
mount: unknown filesystem type 'LVM2_member'
我尝试查找有关卷组的一些信息
bash-4.3# vgdisplay
--- Volume group ---
VG Name vg1000
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 2
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 32.71 TiB
PE Size 4.00 MiB
Total PE 8574353
Alloc PE / Size 8574353 / 32.71 TiB
Free PE / Size 0 / 0
VG UUID Mxjnuy-PmQl-3TBT-zUa2-kBj8-j3AO-PNibo3
有一个卷组
bash-4.3# lvdisplay
--- Logical volume ---
LV Path /dev/vg1000/lv
LV Name lv
VG Name vg1000
LV UUID u1Ik6T-BQDC-ljKt-TocR-brIQ-5g6R-BR0JTv
LV Write Access read/write
LV Creation host, time ,
LV Status NOT available
LV Size 32.71 TiB
Current LE 8574353
Segments 1
Allocation inherit
Read ahead sectors auto
以及逻辑卷
在 /dev/vg1000 中找不到 vg1000。它似乎处于非活动状态。因此我通过以下方式激活它:
bash-4.3# vgchange -ay
1 logical volume(s) in volume group "vg1000" now active
现在我可以安装它了!
mount /dev/vg1000/lv /volume_restore/
@此时进行备份!
我们现在将“合并突袭”
bash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
2490176 blocks [10/9] [UUUUUUUUU_]
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
2097088 blocks [10/9] [UUUUUUUUU_]
md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]
md1 : active raid1 sdj2[0]
2097088 blocks [10/1] [U_________]
md0 : active raid1 sdj1[0]
2490176 blocks [10/1] [U_________]
md125 似乎是我以前的 RAID 的旧根分区。我将尝试将 md0 传播到所有磁盘
首先停止 /dev/md125
mdadm --stop /dev/md125
检查是否已停止
bash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
2097088 blocks [10/9] [UUUUUUUUU_]
md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]
md1 : active raid1 sdj2[0]
2097088 blocks [10/1] [U_________]
md0 : active raid1 sdj1[0]
2490176 blocks [10/1] [U_________]
现在将磁盘的所有以前的分区添加到 raid 中
bash-4.3# /sbin/mdadm --add /dev/md0 /dev/sda1 /dev/sdi1 /dev/sdh1 /dev/sdg1 /dev/sdf1 /dev/sdc1 /dev/sdb1
mdadm: added /dev/sda1
mdadm: added /dev/sdi1
mdadm: added /dev/sdh1
mdadm: added /dev/sdg1
mdadm: added /dev/sdf1
mdadm: added /dev/sdc1
mdadm: added /dev/sdb1
检查是否有效
bash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
2097088 blocks [10/9] [UUUUUUUUU_]
md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]
md1 : active raid1 sdj2[0]
2097088 blocks [10/1] [U_________]
md0 : active raid1 sdb1[10](S) sdc1[11](S) sdf1[12](S) sdg1[13](S) sdh1[14](S) sdi1[15](S) sda1[16] sdj1[0]
2490176 blocks [10/1] [U_________]
[>....................] recovery = 2.4% (60032/2490176) finish=3.3min speed=12006K/sec
您可以对 md1 执行相同操作
对于您的数据突袭,您需要在“新磁盘”上创建分区(在我的情况下为 sdj5)。
我使用 /dev/sda 上的 parted 很容易就了解了分区的属性
rbash-4.3# parted /dev/sda
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
print
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 131kB 2550MB 2550MB ext4 raid
2 2550MB 4698MB 2147MB linux-swap(v1) raid
5 4840MB 4001GB 3996GB raid
使用 parted /dev/sdj 创建相同的分区
bash-4.3# parted /dev/sdj
mkpart primary 4840MB 4001GB
set 1 raid on
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sdj: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 2551MB 2550MB ext4 raid
2 2551MB 4699MB 2147MB linux-swap(v1) raid
3 4840MB 4001GB 3996GB raid
quit
此时它创建了一个分区 n°3,但我不介意。
我只需要将此分区添加到我的 raid 中:
bash-4.3# /sbin/mdadm --add /dev/md127 /dev/sdj3
然后你可以使用以下命令检查你的团队是否正在重建
bash-4.3# cat /proc/mdstat