我解决了
解决方案在我的回答中(见我的下一篇文章)。这篇文章仅描述了我最初的问题和我尝试过的方法。
其中可能对你有一些指引...或者没有。
我解决了它结束
首先,我对 Linux 还很陌生。事情是这样的。我的旧电脑主板坏了。没关系,我只要换一块新的就行了。但是我太愚蠢了,竟然使用了 Intel 的 RST,它装在旧主板上,新主板上没有。现在的问题是,是否有可能在没有 Intel RST 启动扩展的情况下恢复 RST raid?看起来磁盘并没有自动组装成一个卷。在我看来这是可能的,但是当涉及到 raid 和磁盘/分区管理时,我的知识几乎只停留在 gparted 上。
到目前为止,我发现两个磁盘的 blkid 都给出(且仅给出):
/dev/sdb: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
看上去还不错。
mdadm -E 给我:
mdadm -E /dev/sdb /dev/sda
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 3ad31c33
Family : 3ad31c33
Generation : 000006b7
Attributes : All supported
UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
Checksum : 0798e757 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : 6VYCWHXL
State : active
Id : 00000000
Usable Size : 488391680 (232.88 GiB 250.06 GB)
[Volume0]:
UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
RAID Level : 0
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Sector Size : 512
Array Size : 976783360 (465.77 GiB 500.11 GB)
Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
Sector Offset : 0
Num Stripes : 1907780
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
RWH Policy : off
Disk01 Serial : W2A50R0P
State : active
Id : 00000004
Usable Size : 488391680 (232.88 GiB 250.06 GB)
mdadm: /dev/sda is not attached to Intel(R) RAID controller.
mdadm: /dev/sda is not attached to Intel(R) RAID controller.
/dev/sda:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 3ad31c33
Family : 3ad31c33
Generation : 000006b7
Attributes : All supported
UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
Checksum : 0798e757 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk01 Serial : W2A50R0P
State : active
Id : 00000004
Usable Size : 488391680 (232.88 GiB 250.06 GB)
[Volume0]:
UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
RAID Level : 0
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Sector Size : 512
Array Size : 976783360 (465.77 GiB 500.11 GB)
Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
Sector Offset : 0
Num Stripes : 1907780
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
RWH Policy : off
Disk00 Serial : 6VYCWHXL
State : active
Id : 00000000
Usable Size : 488391680 (232.88 GiB 250.06 GB)
那么是否可以安全地将这两个磁盘重新组合成一个卷?例如 mdadmin --assemble
我对 mdadm 的工作原理存有疑问。所以这对我来说是一个很好的学习经历。
lsb_release -a
Distributor ID: Ubuntu
Description: Ubuntu 19.10
Release: 19.10
Codename: eoan
uname -a
Linux HPx64 5.3.0-51-generic #44-Ubuntu SMP Wed Apr 22 21:09:44 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux
请注意,它被命名为 HPx64,因为我重复使用了 Ubuntu 安装,这是一个 xUbuntu
--- 更新时间:2020-05-15 ---
发现设置 IMSM_NO_PLATFORM=1 环境变量有两个影响(到目前为止)。1) 从以下位置删除“mdadm:/dev/sdb 未连接到 Intel(R) RAID 控制器。”警告输出:
mdadm -E /dev/sdb
2) 从以下输出中删除“mdadm:/dev/sdb 未连接到 Intel(R) RAID 控制器。”:
mdadm --assemble /dev/md0 /dev/sdb /dev/sda
组装后的状态是在 dev 中创建了 md0 设备:
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb[1](S) sda[0](S)
5488 blocks super external:imsm
unused devices: <none>
和
mdadm -E /dev/md0
/dev/md0:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 3ad31c33
Family : 3ad31c33
Generation : 000006b7
Attributes : All supported
UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
Checksum : 0798e757 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : 6VYCWHXL
State : active
Id : 00000000
Usable Size : 488391680 (232.88 GiB 250.06 GB)
[Volume0]:
UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
RAID Level : 0
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Sector Size : 512
Array Size : 976783360 (465.77 GiB 500.11 GB)
Per Dev Size : 488391944 (232.88 GiB 250.06 GB)
Sector Offset : 0
Num Stripes : 1907780
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
RWH Policy : off
Disk01 Serial : W2A50R0P
State : active
Id : 00000004
Usable Size : 488391680 (232.88 GiB 250.06 GB)
和
mdadm --query --detail /dev/md0
/dev/md0:
Version : imsm
Raid Level : container
Total Devices : 2
Working Devices : 2
UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
Member Arrays :
Number Major Minor RaidDevice
- 8 0 - /dev/sda
- 8 16 - /dev/sdb
所以这只是部分方法,但仍然有些问题。似乎卷未暴露给系统,并且 md0 的检查与 sdb 类似。欢迎提出任何想法和意见。
答案1
!!! 成功!!!
找到了。我尽力了。我所要做的就是:
IMSM_NO_PLATFORM=1 mdadm --assemble --scan --verbose
然后 wuuupti dooooo 将 raid 卷重新组装为 /dev/md126:
mdadm --query --detail /dev/md126p1
/dev/md126p1:
Container : /dev/md/imsm0, member 0
Raid Level : raid0
Array Size : 488388608 (465.76 GiB 500.11 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 128K
Consistency Policy : none
UUID : 529ecb47:39f4bc8b:0f05dbe3:960195fd
Number Major Minor RaidDevice State
1 8 16 0 active sync /dev/sdb
0 8 0 1 active sync /dev/sda
答案2
确认mdadm --assemble --scan
我的 RST 阵列已联机
由于这是一项(尽管简单)却令人恐惧的练习,因此这里是我自己的体验,希望能减轻有类似意图的人的担忧。
在 Z270 主板的 BIOS 中创建 4 个 Raid 5 驱动器,用于 Windows 10。全新安装 Ubuntu 22.04(和 Win11 进行双启动)时断开驱动器连接,以避免在各自的加密过程中出现复杂情况。
lsblk -o name,size,fstype,type,mountpoint
最初在其结果中包含以下内容(组装前)
sda 7.3T isw_raid_member disk
sdb 7.3T isw_raid_member disk
└─sdb1 7.3T part
sdd 7.3T isw_raid_member disk
├─sdd1 16M part
└─sdd2 7.3T part
sde 7.3T isw_raid_member disk
冉
sudo apt install mdadm
sudo mdadm --assemble --scan
有结果
mdadm: Container /dev/md/imsm0 has been assembled with 4 drives
mdadm: /dev/md/Data_22.3R5 has been assembled with 4 devices and started.
确认阵列现已在更新中列出/etc/mdadm/mdadm.conf
,还检查了 lsblk 以找到以下更改
lsblk -o name,size,fstype,type,mountpoint
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 7.3T isw_raid_member disk
├─md126 21.8T raid5
│ ├─md126p1 16M part
│ └─md126p2 21.8T ntfs part /media/a/Data
└─md127 0B md
sdb 7.3T isw_raid_member disk
├─sdb1 7.3T part
├─md126 21.8T raid5
│ ├─md126p1 16M part
│ └─md126p2 21.8T ntfs part /media/a/Data
└─md127 0B md
sdd 7.3T isw_raid_member disk
├─sdd1 16M part
├─sdd2 7.3T part
├─md126 21.8T raid5
│ ├─md126p1 16M part
│ └─md126p2 21.8T ntfs part /media/a/Data
└─md127 0B md
sde 7.3T isw_raid_member disk
├─md126 21.8T raid5
│ ├─md126p1 16M part
│ └─md126p2 21.8T ntfs part /media/a/Data
└─md127 0B md
阵列已自动安装/dev/md126
并自动显示在“其他位置”下的文件(Nautalis 浏览器)中。确认对阵列的读/写访问权限。