RAID 5 数据恢复异常行为

RAID 5 数据恢复异常行为

我正在尝试从看似有故障的主板芯片组中恢复 HW RAID 5 设置。

BIOS 可以检测到 3 个独立的驱动器,并且 RAID ROM 可以将所有 3 个驱动器检测为成员驱动器。

然后,在尝试启动已连接的 RAID 时,异常行为就开始了,任何尝试启动任何驱动器(RAID、独立 HDD、CD、USB)都会导致黑屏,左上角有一个白色水平光标闪烁。然后系统将挂起,或重新启动并重试。挂起和重新启动之间似乎没有关系。断开 RAID 连接后,一段时间内仍会导致相同的行为,断开驱动器后,经过不确定次数的重新启动,系统将正常启动。所有操作系统都会发生相同的行为。

我尝试了许多关于如何使系统稳定的建议,包括以下内容:

  • 新的操作系统硬盘
  • 所有新 SATA 线缆
  • 清除 CMOS
  • 将 BIOS 重置为默认值
  • 将 BIOS 更新至最新稳定版本

关于如何使系统足够稳定以将数据复制到非 RAID 驱动器,还有其他建议吗?

系统规格:

  • 技嘉GA-Z77-D3H
  • 英特尔至强 E3-1240V2
  • 4x Corsair 4GB 1333MHz Cas15 非 ECC
  • Nvidia Quaddro FX380
  • 3 个 WD Red 3TB(RAID 驱动器)
  • 1x WD Red 3TB(用于备份的新驱动器)

编辑:问题已确定,在某个时候,BIOS SATA 控制器已从 RAID 更改为单驱动器选项(AHCI 或 IDE),并损坏了阵列中带有 Microsoft 保留分区的第一个驱动器。每次机器启动到 Windows 时,iRST 都会尝试重建阵列,而 Microsoft 则尝试使用损坏的驱动器,冲突的操作导致系统锁定并崩溃。移除损坏的驱动器并替换为新驱动器已使 RAID 进入稳定的重建模式。系统现在将顺利启动到在 USB 闪存驱动器上运行的 Linux 操作系统(Debian 似乎是最稳定的),可以从中访问 RAID 并备份数据。启动到任何 Windows 安装仍然会崩溃,因此这将是一个稍后要解决的问题,在数据全部安全后。

答案1

因此,经过数周时间尝试了许多可能的解决方案后,我终于通过在 Debian 中组装 RAID 集并复制到新驱动器来恢复数据。这一直失败,需要重新启动系统并使用 mdadm 重新组装阵列。

恢复数据后,使用非 RAID 配置的新硬盘重建系统。不稳定问题仍然存在,随机崩溃,并且在任何密集的读/写期间崩溃。由此我推断芯片组中的 SATA 控制器发生了故障。遗憾的是,我能找到的唯一解决方案是更换主板,并借此机会升级系统并开始新构建。

TLDR:问题仍然未解决,整个系统已被替换,因此没有更多的更新或解决方案。

相关内容