mdadm

Mdadm raid 5 阵列大小只有预期的一半
mdadm

Mdadm raid 5 阵列大小只有预期的一半

我使用 mdadm 创建了一个由 4 x 4TB 驱动器组成的 Raid 5 阵列,我预计该阵列的总空间为 11-12Tb。 但在构建阵列后,我注意到它的实际大小只有预期大小的一半,只有 6TB。并且每个驱动器显示可用空间为 2TB。 突袭配置: $ cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md127 : active raid5 sdc1[1] sda1[4] sdd1[2] sdb1[0]...

Admin

当我忘记执行 mdadm --remove 时,如何重建 mdraid 阵列?
mdadm

当我忘记执行 mdadm --remove 时,如何重建 mdraid 阵列?

我已经物理替换了/dev/sdkb磁盘,但是我忘记了: sudo mdadm /dev/md4 --remove /dev/sdkb3 以下是阵列的状态: $ sudo mdadm -D /dev/md4 /dev/md4: Version : 1.2 Creation Time : Wed Aug 21 15:55:55 2013 Raid Level : raid6 Array Size : 29255442560 (27900.16 GiB 29957.57 GB) Used Dev Size : 2925...

Admin

分区和 GPT 混乱:mdadm RAID 被 Windows 分区覆盖 - 可以修复分区表吗?
mdadm

分区和 GPT 混乱:mdadm RAID 被 Windows 分区覆盖 - 可以修复分区表吗?

亲爱的社区, 我写这篇文章是因为我可能已经破坏了我的系统。我在 Windows 中启动了磁盘管理器;由于我的一个磁盘无法识别,并且 Windows 善意地建议我初始化该磁盘,我点击了« 使用 GPT 进行初始化 »——我以为这是一个未安装的 USB 密钥。 很遗憾,这是我用 mdadm 创建的 RAID 5 卷… 如果我理解正确的话,Windows 创建了一个 GPT 分区来替换(?)mdadm 创建的现有分区现在我可以在 Windows 上看到这个 RAID 磁盘了,以前是看不到的。 无需触碰任何东西,您认为我可以恢复该分区吗?有什么关...

Admin

在 Ubuntu 上重新加载 RAID
mdadm

在 Ubuntu 上重新加载 RAID

我使用带有一个大型 mdadm 的 Ubuntu(带有两个大磁盘的 RAID),但是:我有带操作系统的新磁盘(当然是 Ubuntu)。我试图重新加载我的 mdadm。没有成功。 # cat /proc/mdstat Personalities : [raid0] [linear] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : active raid0 sdb1[0] sdc1[1] 7813770240 blocks super 1.2 512k chunks ...

Admin

仅使用备用件组装 raid6 阵列
mdadm

仅使用备用件组装 raid6 阵列

这个问题与使用 Pacemaker 管理 raid6 设备但是,除了涉及到的事实之外,所链接的问题中没有任何内容与该问题相关Pacemaker。 为了回答这个问题,我假设阵列不是分布式的,但仍由 管理pacemaker。我创建了一个raid6由 4 个设备组成的阵列。Pacemaker管理阵列及其所有设备,全部作为资源。我添加了适当的约束,以便在至少 2 个设备启动并可用之前不会组装阵列。 当其中一个设备发生故障时,麻烦就来了。从一个完全干净的阵列开始,如果其中一个设备发生故障,或者其任何依赖项发生故障,则pacemaker通过其资源代理停用相应的设备。但是...

Admin

恢复 RAID 6:驱动器正常,但分区“丢失”
mdadm

恢复 RAID 6:驱动器正常,但分区“丢失”

我的 RAID 6 阵列(8 个 HDD,mdadm)出现了奇怪的问题。3 个驱动器意外地从阵列中消失,相应的结果是阵列已损坏,但所有 8 个驱动器都完好无损,smartctl 中没有任何错误,其上的分区(/dev/sda1、/dev/sdb1 等)也没有问题。唯一让我感到困惑的是,这 3 个驱动器的分区(sda、sde、sdh)上没有 msftdata 标志: Disk /dev/sda: 3001GB Number Start End Size File system Name Flags 1 1049kB 3...

Admin

无法停止 md raid6 阵列
mdadm

无法停止 md raid6 阵列

我在 iscsi 和 lvm 共享逻辑卷上设置了一个 raid6 阵列,用来确保 iscsi 网络中的一个节点部分每次只能使用 raid 卷。 今天我无法停止音量。以下是我所看到的(简短)完整跟踪: [root@ceph03 ~]# mdadm --stop /dev/md/disk12 mdadm: failed to stop array /dev/md/disk12: Success [root@ceph03 ~]# 请忽略上面提示中的 ceph 引用;设置中没有任何与 ceph 相关的内容。 当我运行上述命令时,我看不到任何线索/var/log/m...

Admin

ZFS 和 mdadm 使用的磁盘上出现 SMART 错误
mdadm

ZFS 和 mdadm 使用的磁盘上出现 SMART 错误

一段时间以来,每次我重新启动工作站(称为“charm”)后,我都会收到如下电子邮件。 Subject: SMART error (ErrorCount) detected on host: charm This message was generated by the smartd daemon running on: host name: charm DNS domain: jj5.net The following warning/error was logged by the smartd daemon: Device: /dev...

Admin

新主板和处理器后,mdadm 丢失了 RAID5
mdadm

新主板和处理器后,mdadm 丢失了 RAID5

我将 mdadm RAID5 移至不同的主板/处理器,相同的启动驱动器。 在 mdadm --assemble --scan 期间不再找到该阵列 主板之前运行的是 INTEL RAID,因此启动时它显示 RAID5 中的所有四个驱动器都不属于 RAID。 root@server:/dev# mdadm --examine /dev/sdc /dev/sdc: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) root@server:/dev# m...

Admin

从 HDD 中删除 RAID 元数据,以便可以将其重新用作单个磁盘
mdadm

从 HDD 中删除 RAID 元数据,以便可以将其重新用作单个磁盘

以前的 RAID 配置是 QNAP NAS 中的 RAID6,现在我想将磁盘重新用作不同机器中的 8 个独立磁盘。 每个磁盘似乎都有一些 RAID 元数据(超级块),阻止我将它们格式化为最大容量(3TB)。 我试过了 : sudo mdadm -v --zero-superblock /dev/sdb mdadm: Unrecognised md component device - /dev/sdb sudo mdadm -E /dev/sdb /dev/sdb: MBR Magic : aa55 Partition[0] : 15655...

Admin

还原/访问 Synology Raid 1
mdadm

还原/访问 Synology Raid 1

最近有人让我尝试从 Synology NAS 上的 raid 中恢复数据。该 raid 由 2 个 2TB 大小的磁盘组成。它是 raid 1。 据我所知,其中一个驱动器出现故障,而备份驱动器仍然完好无损。我知道这两个驱动器中哪个是哪个。 重新组装 RAID 没有任何效果。出于某种原因,无论我在 --assemble 命令中声明了什么 md,每次执行 mdadm 命令后,RAID 总是被识别为 md127。当我声明其中一个驱动器丢失时,mdadm 会开始寻找名为丢失的驱动器,而不是将阵列声明为降级。在组装命令结束时,最终结果始终是“未找到适合 dev/md/...

Admin

Raid6 mdadm 重塑操作中断 - 现在无法挂载或检查
mdadm

Raid6 mdadm 重塑操作中断 - 现在无法挂载或检查

编辑:重塑完成后,驱动器将再次变得完全可访问。 在重塑 raid6 阵列时发生了电源故障,现在无法对其运行某些操作,包括安装或mdadm --examine。 更糟糕的是,其中一个驱动器未通过智能测试并出现读取错误。 重塑已经恢复,但我担心如果/当重塑完成时,有些损坏将无法修复。 以下是输出cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md127 : active raid6 sdg1[2] sdf1[1] sde1[0] sdd1[5] sdb1[3](S) sda[7] sdc[6] ...

Admin

清理 QNAP NAS 的 RAID5 周围的残留物
mdadm

清理 QNAP NAS 的 RAID5 周围的残留物

我刚刚将一个 12TB RAID5(4 个 4TB 磁盘)从我的 QNAP NAS 移到我的 Linux 服务器(/dev/md0),我注意到每个磁盘上都有三个“剩余”分区(/dev/sd*1、、),包括 3 个额外的 RAID (/dev/sd*2、、)。/dev/sd*4/dev/md4/dev/md9/dev/md13 我想做以下事情: 摆脱那 3 次无用的突袭 ( /dev/md4, /dev/md9, /dev/md13) 删除那 12 个无用的分区( /dev/sda1, /dev/sda2, /dev/sda4, /dev/sdb1, /de...

Admin

在 initramfs 期间,udev 忽略了我的 mdadm raid 1,但 raid 在救援中完美组装
mdadm

在 initramfs 期间,udev 忽略了我的 mdadm raid 1,但 raid 在救援中完美组装

我知道,关于 mdadm 还有另一个问题...... 我会尽力解释清楚: 系统: Archlinux Kernel 5.15.81-1-lts systemd 252.2-3-arch 救援: ArchISO (with zfs module) Kernel 5.10.78-1-lts systemd 249.6-3-arch Zfs 2.1.1-1 我的系统由两个驱动器组成: nvme{0,1}n1: - p1 - F32 - md1 (Metadata=1.0, homehost=any) - p2 - zfs - root fs - p3 - lu...

Admin

为什么 MDADM 从阵列中删除没有错误的磁盘并将其标记为故障
mdadm

为什么 MDADM 从阵列中删除没有错误的磁盘并将其标记为故障

我有一个 Raid6,即使长时间测试没有显示任何错误,它也会不断自动将磁盘(/dev/sdi)标记为故障并将其从阵列中删除: 检测结果 sudo smartctl -l selftest /dev/sdi Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Self-test log structure revision number 1 Num Test_De...

Admin