在另一块主板上重新组装英特尔 RST RAID

在另一块主板上重新组装英特尔 RST RAID

我解决了

解决方案在我的回答中(见我的下一篇文章)。这篇文章仅描述了我最初的问题和我尝试过的方法。

其中可能对你有一些指引...或者没有。

我解决了它结束

首先,我对 Linux 还很陌生。事情是这样的。我的旧电脑主板坏了。没关系,我只要换一块新的就行了。但是我太愚蠢了,竟然使用了 Intel 的 RST,它装在旧主板上,新主板上没有。现在的问题是,是否有可能在没有 Intel RST 启动扩展的情况下恢复 RST raid?看起来磁盘并没有自动组装成一个卷。在我看来这是可能的,但是当涉及到 raid 和磁盘/分区管理时,我的知识几乎只停留在 gparted 上。

到目前为止,我发现两个磁盘的 blkid 都给出(且仅给出):

/dev/sdb: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"

看上去还不错。

mdadm -E 给我:

mdadm -E /dev/sdb /dev/sda
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 3ad31c33
         Family : 3ad31c33
     Generation : 000006b7
     Attributes : All supported
           UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
       Checksum : 0798e757 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : 6VYCWHXL
          State : active
             Id : 00000000
    Usable Size : 488391680 (232.88 GiB 250.06 GB)

[Volume0]:
           UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
    Sector Size : 512
     Array Size : 976783360 (465.77 GiB 500.11 GB)
   Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
  Sector Offset : 0
    Num Stripes : 1907780
     Chunk Size : 128 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk01 Serial : W2A50R0P
          State : active
             Id : 00000004
    Usable Size : 488391680 (232.88 GiB 250.06 GB)
mdadm: /dev/sda is not attached to Intel(R) RAID controller.
mdadm: /dev/sda is not attached to Intel(R) RAID controller.
/dev/sda:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 3ad31c33
         Family : 3ad31c33
     Generation : 000006b7
     Attributes : All supported
           UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
       Checksum : 0798e757 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : W2A50R0P
          State : active
             Id : 00000004
    Usable Size : 488391680 (232.88 GiB 250.06 GB)

[Volume0]:
           UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
    Sector Size : 512
     Array Size : 976783360 (465.77 GiB 500.11 GB)
   Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
  Sector Offset : 0
    Num Stripes : 1907780
     Chunk Size : 128 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk00 Serial : 6VYCWHXL
          State : active
             Id : 00000000
    Usable Size : 488391680 (232.88 GiB 250.06 GB)

那么是否可以安全地将这两个磁盘重新组合成一个卷?例如 mdadmin --assemble

我对 mdadm 的工作原理存有疑问。所以这对我来说是一个很好的学习经历。

lsb_release -a

Distributor ID: Ubuntu
Description:    Ubuntu 19.10
Release:    19.10
Codename:   eoan

uname -a

Linux HPx64 5.3.0-51-generic #44-Ubuntu SMP Wed Apr 22 21:09:44 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux

请注意,它被命名为 HPx64,因为我重复使用了 Ubuntu 安装,这是一个 xUbuntu

--- 更新时间:2020-05-15 ---

发现设置 IMSM_NO_PLATFORM=1 环境变量有两个影响(到目前为止)。1) 从以下位置删除“mdadm:/dev/sdb 未连接到 Intel(R) RAID 控制器。”警告输出:

mdadm -E /dev/sdb

2) 从以下输出中删除“mdadm:/dev/sdb 未连接到 Intel(R) RAID 控制器。”:

mdadm --assemble /dev/md0 /dev/sdb /dev/sda

组装后的状态是在 dev 中创建了 md0 设备:

cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdb[1](S) sda[0](S)
      5488 blocks super external:imsm

unused devices: <none>

mdadm -E /dev/md0 
/dev/md0:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 3ad31c33
         Family : 3ad31c33
     Generation : 000006b7
     Attributes : All supported
           UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
       Checksum : 0798e757 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : 6VYCWHXL
          State : active
             Id : 00000000
    Usable Size : 488391680 (232.88 GiB 250.06 GB)

[Volume0]:
           UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
    Sector Size : 512
     Array Size : 976783360 (465.77 GiB 500.11 GB)
   Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
  Sector Offset : 0
    Num Stripes : 1907780
     Chunk Size : 128 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk01 Serial : W2A50R0P
          State : active
             Id : 00000004
    Usable Size : 488391680 (232.88 GiB 250.06 GB)

mdadm --query --detail  /dev/md0

/dev/md0:
           Version : imsm
        Raid Level : container
     Total Devices : 2

   Working Devices : 2


              UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
     Member Arrays :

    Number   Major   Minor   RaidDevice

       -       8        0        -        /dev/sda
       -       8       16        -        /dev/sdb

所以这只是部分方法,但仍然有些问题。似乎卷未暴露给系统,并且 md0 的检查与 sdb 类似。欢迎提出任何想法和意见。

答案1

!!! 成功!!!

找到了。我尽力了。我所要做的就是:

IMSM_NO_PLATFORM=1 mdadm --assemble --scan --verbose

然后 wuuupti dooooo 将 raid 卷重新组装为 /dev/md126:

mdadm --query --detail  /dev/md126p1
/dev/md126p1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid0
        Array Size : 488388608 (465.76 GiB 500.11 GB)
      Raid Devices : 2
     Total Devices : 2

             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 128K

Consistency Policy : none


              UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
    Number   Major   Minor   RaidDevice State
       1       8       16        0      active sync   /dev/sdb
       0       8        0        1      active sync   /dev/sda

答案2

确认mdadm --assemble --scan我的 RST 阵列已联机

由于这是一项(尽管简单)却令人恐惧的练习,因此这里是我自己的体验,希望能减轻有类似意图的人的担忧。

在 Z270 主板的 BIOS 中创建 4 个 Raid 5 驱动器,用于 Windows 10。全新安装 Ubuntu 22.04(和 Win11 进行双启动)时断开驱动器连接,以避免在各自的加密过程中出现复杂情况。

lsblk -o name,size,fstype,type,mountpoint

最初在其结果中包含以下内容(组装前)

sda                7.3T isw_raid_member disk  
sdb                7.3T isw_raid_member disk  
└─sdb1             7.3T                 part  


sdd                7.3T isw_raid_member disk  
├─sdd1              16M                 part  
└─sdd2             7.3T                 part  
sde                7.3T isw_raid_member disk  

sudo apt install mdadm
sudo mdadm --assemble --scan

有结果

mdadm: Container /dev/md/imsm0 has been assembled with 4 drives
mdadm: /dev/md/Data_22.3R5 has been assembled with 4 devices and started.

确认阵列现已在更新中列出/etc/mdadm/mdadm.conf ,还检查了 lsblk 以找到以下更改

lsblk -o name,size,fstype,type,mountpoint
NAME               SIZE FSTYPE          TYPE  MOUNTPOINT
sda                7.3T isw_raid_member disk  
├─md126           21.8T                 raid5 
│ ├─md126p1         16M                 part  
│ └─md126p2       21.8T ntfs            part  /media/a/Data
└─md127              0B                 md    
sdb                7.3T isw_raid_member disk  
├─sdb1             7.3T                 part  
├─md126           21.8T                 raid5 
│ ├─md126p1         16M                 part  
│ └─md126p2       21.8T ntfs            part  /media/a/Data
└─md127              0B                 md    
sdd                7.3T isw_raid_member disk  
├─sdd1              16M                 part  
├─sdd2             7.3T                 part  
├─md126           21.8T                 raid5 
│ ├─md126p1         16M                 part  
│ └─md126p2       21.8T ntfs            part  /media/a/Data
└─md127              0B                 md    
sde                7.3T isw_raid_member disk  
├─md126           21.8T                 raid5 
│ ├─md126p1         16M                 part  
│ └─md126p2       21.8T ntfs            part  /media/a/Data
└─md127              0B                 md 

阵列已自动安装/dev/md126并自动显示在“其他位置”下的文件(Nautalis 浏览器)中。确认对阵列的读/写访问权限。

相关内容