UEFI Intel RST RAID 问题,可以用 MDADM 解决吗?

UEFI Intel RST RAID 问题,可以用 MDADM 解决吗?

我在 Gigabyte GA-X38-DQ6 上有两个磁盘以 RAID0 运行。它们包含 Windows 安装,但由于我从另一个 SSD 磁盘运行 Linux,所以根本没用到它们。

它们在 Intel SATA 插槽(Intel RST?)上运行。在 UEFI POST 之后,RAID 卷在配置上被标记为可启动。但随后我从 中删除了 RAID 卷上的 Windows 分区parted,创建了新的“msdos”表,其中包含一个分区,并使用 LUKS 加密。然后重新启动机器。

接下来发生的情况是,我无法通过 UEFI POST 并卡在存储设备枚举,代码为 23。

然后我必须清除 CMOS 并确保英特尔 SATA 插槽上的 RAID 已禁用,才能通过 POST 并再次从另一个 SSD 启动 Linux。但我现在无法在该控制器上启用 RAID 来删除 RAID 卷并将其标记为不可启动(不确定这会产生什么影响)。

是否mdadm具有删除这两个磁盘上的元数据的功能,以便 UEFI 也能得到更新,从而不再有 RAID 卷?

sudo mdadm -E /dev/sda /dev/sdc

/dev/sda:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 5373413e
         Family : 5373413e
     Generation : 00000380
  Creation Time : Unknown
     Attributes : All supported
           UUID : 1050b44e:85219cfd:076c3919:92d0fc44
       Checksum : 89441d1c correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : PO949601DJ080BGN
          State : active
             Id : 00000000
    Usable Size : 156296192 (74.53 GiB 80.02 GB)

[intel]:
       Subarray : 0
           UUID : 1abe4081:e1409052:bcf4593b:1e59904b
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
    Sector Size : 512
     Array Size : 312592384 (149.06 GiB 160.05 GB)
   Per Dev Size : 156296456 (74.53 GiB 80.02 GB)
  Sector Offset : 0
    Num Stripes : 610532
     Chunk Size : 128 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off
      Volume ID : 0

  Disk01 Serial : PO949602KP080BGN
          State : active
             Id : 00010000
    Usable Size : 156296192 (74.53 GiB 80.02 GB)
mdadm: /dev/sdc is not attached to Intel(R) RAID controller.
mdadm: /dev/sdc is not attached to Intel(R) RAID controller.
/dev/sdc:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 5373413e
         Family : 5373413e
     Generation : 00000380
  Creation Time : Unknown
     Attributes : All supported
           UUID : 1050b44e:85219cfd:076c3919:92d0fc44
       Checksum : 89441d1c correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : PO949602KP080BGN
          State : active
             Id : 00010000
    Usable Size : 156296192 (74.53 GiB 80.02 GB)

[intel]:
       Subarray : 0
           UUID : 1abe4081:e1409052:bcf4593b:1e59904b
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
    Sector Size : 512
     Array Size : 312592384 (149.06 GiB 160.05 GB)
   Per Dev Size : 156296456 (74.53 GiB 80.02 GB)
  Sector Offset : 0
    Num Stripes : 610532
     Chunk Size : 128 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off
      Volume ID : 0

  Disk00 Serial : PO949601DJ080BGN
          State : active
             Id : 00000000
    Usable Size : 156296192 (74.53 GiB 80.02 GB)

答案1

通过首先删除 RAID 元数据mdadm然后在整个磁盘上写入零来修复此问题。

然后我可以再次在 UEFI 上启用 RAID 并创建一个新的 fakeRAID,但无论如何,我认为软件 RAIDmdadm可能更好。

相关内容