我确实有一个运行 OpenMediaVault5(版本:5.5.13-1 (Usul))的 NAS,在 RAID5 中使用 11 个硬盘,并且有(实际上到今天为止)12TB 的可用空间。从今天早上开始,突然间,它开始显示只有 65GB 可用,我怀疑这实际上是安装 OpenMediaVault5 的驱动器。为了不浪费空间,我在一个旧的 80GB(74.53GB 实际空间)SATA 驱动器上安装了 OpenMediaVault5。
我确实怀疑 RAID 管理出了问题,原因如下:
存储->磁盘,列出了所有磁盘,因此它们被视为系统。
存储->SMART->设备,显示所有 HDD,状态为“OK”(绿点)。截图:https://i.ibb.co/6J7Z7kd/01.png
存储->逻辑卷管理->物理卷,只显示一个设备(可用:1.82TiB,已用:1.82TiB),应该有比这个更多的设备。截图:https://i.ibb.co/C6h6pRT/02.png
存储->逻辑卷管理->卷组,是一个卷组,(可用:9.10 TiB,可用:0.00B,物理卷:[未知]/dev/md126)
截屏:https://i.ibb.co/JFs5J2n/03.png
存储-> 逻辑卷管理 -> 逻辑卷,只有一个,容量:9.10TiB,活动:否。我认为应该有一个附加逻辑卷,并且对于这个现有的逻辑卷,除了活动之外,应该是“是”,而不是“否”。截图:ttps://i.ibb.co/ydCYbZC/04.png
存储->RAID管理,只有一个RAID设备,其实应该有几个,现有的那个,状态是“干净,降级”,级别:容量1.82TiB 截图:https://i.ibb.co/YfDZ445/05.png
存储->文件系统,6个文件系统设备中有一个状态为:缺失,对于“已安装”列,看起来4个设备中有一个(80GB HDD)已安装(其他3个未安装,显示为“否”)屏幕截图:https://i.ibb.co/5BhRnNF/06.png
我现在不知道该怎么做:a. 诊断并全面了解问题以及原因。b. 在尝试解决此问题的同时,确保这 11 个 HDD 中的数据安全。c. 修复并重新安装丢失的 RAID 设备而不丢失任何数据,以重新访问所有 HDD。
在过去的一个月里,我必须承认,我关闭了我的 OMV5 NAS,只使用电源按钮,长按它,我担心从中长期来看,这可能会导致一些内部错误或软件错误,从而导致 RAID 管理问题。您认为问题的原因是什么,如何解决?
我会尽力回忆大约 3 年前创建这个 NAS 时它们是如何连接的。
- 1 个 80 GB 硬盘(ST3802110AS,74.53GB)仅用于操作系统(OMV5),独立。
- 10 硬盘在所有 11 个硬盘中同一 LVM 的一部分(逻辑卷管理器)分布如下:a).RAID1 中的 2 个 6TB HDD(ST6000VX0023-2EF110、ST6000VN001-2BB186,各有 5.46TB)b)。3 个 3TB HDD(RAID5)(HUS724030ALA640、ST3000DM008-2DM166、WDC WD30EFRX-68EUZN0,各 2.73TB)。c)。2 个 2 TB HDD,RAID 1(2 x ST2000DM001-1CH164)d)。3 个 500 GB HDD(RAID 5)(ST3500312CS、ST3500418AS、WDC WD5000AADS-00S9B0,各 465.76 GB)
我的一位朋友是 DevOps 团队负责人和 Linux 专家,他发现 OMV 基于 Debian,并帮助我使用 PuTTY 将硬盘放入 RAID、创建 LVM 以及所有其他需要的东西。他尝试以某种方式配置硬盘,以充分利用我的磁盘并尽可能保证我的数据安全。
[更新 1]: 这是输出(从油灰),这可以帮助您更好地了解我的情况:
猫/proc/mdstat
$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md2 : inactive sdc1[1](S)
488252391 blocks super 1.2
md126 : active (auto-read-only) raid5 sdb2[1](S) sdf2[3] sdj2[0]
1953239040 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]
bitmap: 7/8 pages [28KB], 65536KB chunk
md127 : inactive sdb1[1](S) sdf1[5](S) sdi1[3](S) sdj1[0](S) sde1[2](S)
9766901955 blocks super 1.2
unused devices: <none>
块
$ blkid
-sh: 148: blkid: not found
fdisk -l | grep“磁盘”
$ fdisk -l | grep "Disk "
-sh: 152: fdisk: not found
猫/etc/mdadm/mdadm.conf
$ cat /etc/mdadm/mdadm.conf
# This file is auto-generated by openmediavault (https://www.openmediavault.org)
# WARNING: Do not edit this file, your changes will get lost.
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR vic**********@**********.com
MAILFROM root
# definitions of existing MD arrays
#INACTIVE-ARRAY /dev/md4 metadata=1.2 name=t-black:4 UUID=e26095ea:568e0e54:55a79e83:5f9eda43
#INACTIVE-ARRAY /dev/md126 metadata=1.2 name=localhost.localdomain:2 UUID=c3912ec0:9fd283df:d5ff048b:9effd01b
mdadm --detail --scan --verbose
$ mdadm --detail --scan --verbose
-sh: 186: mdadm: not found
我确实希望您能够确认我所处的混乱局面能够在不丢失数据的情况下得到解决,因为在这个阶段,我无法从这个 PuTTy 输出中获得任何东西。
[更新 2]: 根据论坛成员的建议,我尝试过:
$ mdadm --readwrite /dev/md126
,并且我得到:“ mdadm:无法为 /dev/md126 设置可写:设备或资源繁忙”
$ mdadm --assemble --force --verbose /dev/md127 /dev/sdb1 /dev/sdf1 dev/sdi1 /dev/sdj1 /dev/sde1
,并且我得到了:“ mdadm:正在寻找 /dev/md127 的设备 mdadm:/dev/sdb1 正忙 - 跳过 mdadm:/dev/sdf1 正忙 - 跳过 mdadm:dev/sdi1 正忙 - 跳过 mdadm:/dev/sdj1 正忙 - 跳过 mdadm:/dev/sde1 正忙 - 跳过”
现阶段我感觉很绝望,但是谁知道呢,也许我还有希望。
预先感谢您的帮助。