更换主板后 Ubuntu Raid 阵列无法工作

更换主板后 Ubuntu Raid 阵列无法工作

过去两年来,我一直使用 raid 5 阵列作为 NAS,这是我在以下人员的帮助下创建的:指南。但最近我不得不更换这个系统的主板,因为之前的主板停止工作了。这个系统中有 1 个 nvme 和 3 个 hdd。Nvme 用作系统驱动器,而 3 个 hdd 用作 raid 存储。更换主板后,系统可以正常启动到操作系统(无需全新安装 Ubuntu)。但问题是 raid 阵列不再工作了。
我对 Linux 系统一无所知,无法恢复此阵列。我已经尝试过的方法;

只需从头重建阵列即可恢复数据。我全新安装了 OMV,并使用 GUI 擦除了 3 个硬盘。然后创建了一个新的 raid 5 阵列并开始重新同步。重新同步完成后,文件即可再次访问。

sudo mdadm --assemble /dev/md/NAS:0 /dev/sda /dev/sdb /dev/sdc 输出;

mdadm:无法在 /dev/sda 上汇编 mbr 元数据
mdadm:/dev/sda 没有超级块 - 汇编中止*

*此输出与 sda、sdb 和 sdc 相同

cat /proc/mdstat

输出;

个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
未使用的设备:无

lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

输出;

名称 大小 FSTYPE 类型 挂载点
loop0 4K squashfs loop /snap/bare/5
loop1 9.6M squashfs loop /snap/canonical-livepatch/235
loop2 9.6M squashfs loop /snap/canonical-livepatch/246
loop3 105.8M squashfs loop /snap/core/16202
loop4 105.8M squashfs loop /snap/core/16091
loop5 63.5M squashfs loop /snap/core20/2015
loop6 63.9M squashfs loop /snap/core20/2105
loop7 74.1M squashfs loop /snap/core22/1033
loop8 245.9M squashfs loop /snap/firefox/3600
loop9 73.9M squashfs 循环 /snap/core22/864
loop10 246M squashfs 循环 /snap/firefox/3626
loop11 349.7M squashfs 循环 /snap/gnome-3-38-2004/143
loop12 349.7M squashfs 循环 /snap/gnome-3-38-2004/140
loop13 496.9M squashfs 循环 /snap/gnome-42-2204/132
loop14 497M squashfs 循环 /snap/gnome-42-2204/141
loop15 81.3M squashfs 循环 /snap/gtk-common-themes/1534
loop16 45.9M squashfs 循环 /snap/snap-store/638
loop17 91.7M squashfs 循环 /snap/gtk-common-themes/1535
loop18 12.3M squashfs 循环 /snap/snap-store/959
loop19 40.4M squashfs 循环 /snap/snapd/20671
loop20 40.9M squashfs 循环 /snap/snapd/20290
loop21 452K squashfs 循环 /snap/snapd-desktop-integration/83
sda 3.6T zfs_member 磁盘
═─sda1 128M 部分
└─sda2 3.6T ext4 部分
sdb 3.6T zfs_member 磁盘
═─sdb1 128M 部分
└─sdb2 3.6T 部分
sdc 3.6T zfs_member 磁盘
═─sdc1 128M 部分
└─sdc2 3.6T 部分
nvme0n1 119.2G 磁盘
═─nvme0n1p1 512M vfat 部分 /boot/efi
└─nvme0n1p2 118.7G ext4 部分 /

cat /etc/mdadm/mdadm.conf

输出;

mdadm.conf
!NB! 更新此文件后运行 update-initramfs -u。
!NB! 这将确保 initramfs 具有最新副本。

有关此文件的信息,请参阅 mdadm.conf(5)。

默认情况下(内置),扫描所有分区(/proc/partitions)和所有
容器以查找 MD 超级块。或者,指定要扫描的设备(如果需要,可使用
通配符)。
DEVICE 分区容器

自动将新阵列标记为属于本地系统
HOMEHOST(系统)

指示监控守护进程将邮件警报发送到何处
MAILADDR

现有 MD 阵列的根定义

此配置于 2022 年 3 月 17 日星期四 16:19:20 +0530 由 mkconf 自动生成
ARRAY /dev/md/NAS:0 metadata=1.2 name=NAS:0 UUID=e1965c11:b3f7c3db:68417477:2663bfbf

sudo mount /dev/md/NAS:0 /mnt/md0

输出;

mount: /mnt/md0: 糟糕的选项;对于几个文件系统(例如 nfs、cifs),您可能需要 /sbin/mount。(类型)帮助程序。

sudo fsck.ext4 -v /dev/sda2

输出;

e2fsck 1.46.5 (2021 年 12 月 30 日)
ext2fs_check_desc:损坏的组描述符:inode 位图的坏块
fsck.ext4:组描述符看起来不好……正在尝试备份块……
fsck.ext4:使用备份块时超级块中的魔数错误fsck.ext4
:返回原始超级块
超级块具有无效日志(inode 8)。
清除?是
*** 日志已被删除 ***
文件系统大小(根据超级块)为 1953443072 个块
设备的物理大小为 976721408 个块
超级块或分区表可能已损坏!
中止?是
/dev/sda2:***** 文件系统已被修改 *****

我已中止上述过程。我应该继续吗?

答案1

只需从头重建阵列即可恢复数据。我全新安装了 OMV,并使用 GUI 擦除了 3 个硬盘。然后创建了一个新的 raid 5 阵列并开始重新同步。重新同步完成后,阵列正在安装,文件再次可访问。

相关内容