我遇到了一个奇怪的情况,跑步后
mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf
我可以看到尚未创建的 11-15 个数组。这些数组将是位于已存在数组(如 md1+2、md3+4 等)之上的 RAID0 数组。它们之前就存在,但我停止并删除了所有数组,还通过 sgdisk -Z 清理了所有磁盘的 GPT 表,然后从头开始,因为之前有 HW raid,并且它与新的 MDADM SW raid 发生冲突 - 我决定先进行完整的 celanup。
我不明白他从哪里得到了那些 11-15 阵列。我正要组装它们,但现在我不明白为什么 SCAN 会找到它们。此外,在我手动组装 RAID md1-10 之前,扫描只找到了 md1-10,组装完成后,它还找到了 md11-15,因为它不知何故仍然记得它在那里,即使在移除阵列和擦除 GPT 表之后。
知道为什么会发生这种情况吗?我是否应该继续,再次创建 md11-15 以确保安全,然后创建文件系统并完成?我没有在系统的任何地方看到 md11-15 的提及,但扫描仍然找到它们,所以我确信我在从之前的 RAID 配置中进行全面清理时遗漏了一些步骤(认为 sgdisk 就足够了,不想运行 dd)
# This configuration was auto-generated on Fri, 13 Jul 2018 08:01:55 +0000 by mkconf
ARRAY /dev/md/2 metadata=1.2 UUID=4993a3d5:f0a39e85:f8104370:aed5e951 name=vod0-iva:2
ARRAY /dev/md/3 metadata=1.2 UUID=40de46c2:70c6e63f:e9576997:285c2ff3 name=vod0-iva:3
ARRAY /dev/md/4 metadata=1.2 UUID=d18b1263:fb902e8b:730f522a:db993f40 name=vod0-iva:4
ARRAY /dev/md/5 metadata=1.2 UUID=5b6db0c0:53cb2714:4a982ac4:9a837cca name=vod0-iva:5
ARRAY /dev/md/1 metadata=1.2 UUID=1fa709ac:47d4e831:49b29e7a:380a198a name=vod0-iva:1
ARRAY /dev/md/6 metadata=1.2 UUID=183429d2:fb95b326:3016ab5c:6cd80d2f name=vod0-iva:6
ARRAY /dev/md/7 metadata=1.2 UUID=36b01bb6:97a0095f:9e7a4d61:994e9577 name=vod0-iva:7
ARRAY /dev/md/8 metadata=1.2 UUID=6918a7f7:e77b8f46:38cd4ff6:e3e16740 name=vod0-iva:8
ARRAY /dev/md/10 metadata=1.2 UUID=5306e805:a8cf4af3:53b32a3a:445e277d name=vod0-iva:10
ARRAY /dev/md/9 metadata=1.2 UUID=bc7a0857:84f133c4:453dcc65:1ae11abe name=vod0-iva:9
ARRAY /dev/md/12 metadata=1.2 UUID=8058a306:82349197:eedf57a2:0fb80379 name=vod0-iva:12
ARRAY /dev/md/11 metadata=1.2 UUID=7457d40b:43c54eeb:e0f80116:4a61d704 name=vod0-iva:11
ARRAY /dev/md/13 metadata=1.2 UUID=948fafe9:bb978a3d:cd1798fc:665e5fd3 name=vod0-iva:13
ARRAY /dev/md/14 metadata=1.2 UUID=d92e3941:97e09b3e:eefd835c:1b2fa1d6 name=vod0-iva:14
ARRAY /dev/md/15 metadata=1.2 UUID=85845557:7d9e00b5:a1a0d25b:fe24ad34 name=vod0-iva:15
root@vod0-iva:~# mdadm --examine /dev/md
md/ md1 md10 md2 md3 md4 md5 md6 md7 md8 md9
root@vod0-iva:~# mdadm --examine /dev/md/
1 10 2 3 4 5 6 7 8 9
root@vod0-iva:/dev# cat /proc/partitions
major minor #blocks name
8 0 233832448 sda
8 1 9216 sda1
8 2 233821167 sda2
8 16 2930266584 sdb
8 32 2930266584 sdc
**
**
68 224 2930266584 sdca
68 240 2930266584 sdcb
69 16 2930266584 sdcd
69 32 2930266584 sdce
67 128 3907018584 sdbe
69 0 2930266584 sdcc
69 48 2930266584 sdcf
67 64 3907018584 sdba
69 64 2930266584 sdcg
11 0 1048575 sr0
253 0 104857600 dm-0
9 2 11720540160 md2
9 3 11720540160 md3
9 4 11720540160 md4
9 5 11720540160 md5
9 1 11720540160 md1
9 6 11720540160 md6
9 7 11720540160 md7
9 8 11720540160 md8
9 10 11720540160 md10
9 9 11720540160 md9
root@vod0-iva:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md9 : active (auto-read-only) raid6 sdax[0] sdbc[5] sdbb[4] sdba[3] sdaz[2] sday[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md10 : active (auto-read-only) raid6 sdbd[0] sdbi[5] sdbh[4] sdbg[3] sdbf[2] sdbe[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md8 : active (auto-read-only) raid6 sdar[0] sdaw[5] sdav[4] sdau[3] sdat[2] sdas[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md7 : active (auto-read-only) raid6 sdal[0] sdaq[5] sdap[4] sdao[3] sdan[2] sdam[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md6 : active (auto-read-only) raid6 sdaf[0] sdak[5] sdaj[4] sdai[3] sdah[2] sdag[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md1 : active (auto-read-only) raid6 sdb[0] sdg[5] sdf[4] sde[3] sdd[2] sdc[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md5 : active (auto-read-only) raid6 sdz[0] sdae[5] sdad[4] sdac[3] sdab[2] sdaa[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md4 : active (auto-read-only) raid6 sdt[0] sdy[5] sdx[4] sdw[3] sdv[2] sdu[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md3 : active (auto-read-only) raid6 sdn[0] sds[5] sdr[4] sdq[3] sdp[2] sdo[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md2 : active (auto-read-only) raid6 sdh[0] sdm[5] sdl[4] sdk[3] sdj[2] sdi[1]
11720540160 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
root@vod0-iva:~# mdadm --examine /dev/md1
/dev/md1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 7457d40b:43c54eeb:e0f80116:4a61d704
Name : vod0-iva:11 (local to host vod0-iva)
Creation Time : Mon Feb 25 13:02:38 2019
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 23440818176 (11177.45 GiB 12001.70 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : clean
Device UUID : 3363cbc0:5a24a185:6bd4ed73:ab3e9429
Update Time : Mon Feb 25 13:02:38 2019
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 5f45a1f6 - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
root@vod0-iva:~# mdadm --examine /dev/md11
mdadm: cannot open /dev/md11: No such file or directory
答案1
似乎我需要将 md1-10 阵列的超级块清零,以便能够再次将它们添加到更高的 RAID0 中,这对我来说似乎很奇怪,因为我停止了,删除了 md 并执行了 sgdisk -Z 所有磁盘,然后再次创建了 md1-10,它们进行了初始化,一切看起来都像是在创建全新的阵列,只是名称相同。所以我想知道元数据存储在哪里,表示 md1-10 是另一个(已停止并删除)阵列的一部分(上面的任何输出中都不存在该阵列)。
--scan 显然在 md1-10 的零块中找到了它们,但是数据是如何进入零块表的,在第二次初始化之后,在擦除之后,简单地说进入了全新的、尚未使用或添加到任何地方的 md1-10 数组中......谜
root@vod0-iva:/dev# mdadm --create /dev/md11 -v --raid-devices=2 --level=0 /dev/md1 /dev/md2
mdadm: chunk size defaults to 512K
mdadm: /dev/md1 appears to be part of a raid array:
level=raid0 devices=2 ctime=Mon Feb 25 13:02:38 2019
mdadm: /dev/md2 appears to be part of a raid array:
level=raid0 devices=2 ctime=Mon Feb 25 13:02:38 2019
root@vod0-iva:/dev# mdadm --zero-superblock /dev/md1
root@vod0-iva:/dev# mdadm --zero-superblock /dev/md2
root@vod0-iva:/dev# mdadm --create /dev/md11 -v --raid-devices=2 --level=0 /dev/md1 /dev/md2
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md11 started.