我目前正在尝试mdadm
在我的 Linux 机器上设置软件 raid。
我的系统有 4x 8TB(全部都是完全相同的型号),我想将其放入 RAID 10。
然而,跑步之后
❯ sudo mdadm --create --verbose /dev/md/mdData --level=10 --layout=o3 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: chunk size defaults to 512K
mdadm: size set to 7813893120K
mdadm: automatically enabling write-intent bitmap on large array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/mdData started.
lbslk
仅显示 9.7T,而不是 Raid 阵列上预期的 ~16TB 容量:
❯ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 7.3T 0 disk
└─sda1 8:1 0 7.3T 0 part
└─md126 9:126 0 9.7T 0 raid10
sdb 8:16 0 7.3T 0 disk
└─sdb1 8:17 0 7.3T 0 part
└─md126 9:126 0 9.7T 0 raid10
sdc 8:32 0 7.3T 0 disk
└─sdc1 8:33 0 7.3T 0 part
└─md126 9:126 0 9.7T 0 raid10
sdd 8:48 0 7.3T 0 disk
└─sdd1 8:49 0 7.3T 0 part
└─md126 9:126 0 9.7T 0 raid10
sde 8:64 0 7.3T 0 disk
└─sde1 8:65 0 7.3T 0 part
└─backup 254:1 0 7.3T 0 crypt /backup
nvme0n1 259:0 0 232.9G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /boot/efi
├─nvme0n1p2 259:2 0 32G 0 part [SWAP]
└─nvme0n1p3 259:3 0 198.9G 0 part /
我已经尝试直接使用设备执行此操作(例如使用 /dev/sd{a,b,c,d} 并且还尝试使用跨越整个硬盘驱动器的分区 /dev/sd{a,b,c,d}1
谁能告诉我我做错了什么?
答案1
我发现该参数--layout=o3
会导致这种情况发生。如果没有它,整个硬盘容量就会按预期使用。
但不确定是什么原因导致了这种行为。