Linux mdadm + LVM2:跨三个 RAID1 块的“克隆”逻辑卷?

Linux mdadm + LVM2:跨三个 RAID1 块的“克隆”逻辑卷?

我在 Debian Linux 中的磁盘设置如下所示:

> lsblk

NAME              MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                 8:0    0 931,5G  0 disk  
├─sda1              8:1    0   384M  0 part  
├─sda2              8:2    0    48G  0 part  
│ └─md3             9:3    0    48G  0 raid1 
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
├─sda3              8:3    0    48G  0 part  
│ └─md4             9:4    0    48G  0 raid1
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
├─sda4              8:4    0   835G  0 part
│ └─md5             9:5    0 834,8G  0 raid1
│   ├─vg1-lvroot  253:0    0    50G  0 lvm   /
│   ├─vg1-lvhome  253:1    0    50G  0 lvm   /home
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
└─sda5              8:5    0     1M  0 part
sdc                 8:32   0 931,5G  0 disk
├─sdc1              8:33   0   384M  0 part
├─sdc2              8:34   0    48G  0 part
│ └─md3             9:3    0    48G  0 raid1
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
├─sdc3              8:35   0    48G  0 part
│ └─md4             9:4    0    48G  0 raid1
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
├─sdc4              8:36   0   835G  0 part
│ └─md5             9:5    0 834,8G  0 raid1
│   ├─vg1-lvroot  253:0    0    50G  0 lvm   /
│   ├─vg1-lvhome  253:1    0    50G  0 lvm   /home
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
└─sdc5              8:37   0     1M  0 part

不过,我将每个逻辑卷安装在不同的 RAID1 段上,因此我预计输出如下:

NAME              MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                 8:0    0 931,5G  0 disk  
├─sda1              8:1    0   384M  0 part  
├─sda2              8:2    0    48G  0 part  
│ └─md3             9:3    0    48G  0 raid1 
│   └─vg1-lvroot  253:0    0    50G  0 lvm   /
├─sda3              8:3    0    48G  0 part  
│ └─md4             9:4    0    48G  0 raid1
│   └─vg1-lvhome  253:1    0    50G  0 lvm   /home
├─sda4              8:4    0   835G  0 part
│ └─md5             9:5    0 834,8G  0 raid1
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
└─sda5              8:5    0     1M  0 part
sdc                 8:32   0 931,5G  0 disk
├─sdc1              8:33   0   384M  0 part
├─sdc2              8:34   0    48G  0 part
│ └─md3             9:3    0    48G  0 raid1
│   └─vg1-lvroot  253:0    0    50G  0 lvm   /
├─sdc3              8:35   0    48G  0 part
│ └─md4             9:4    0    48G  0 raid1
│   └─vg1-lvhome  253:1    0    50G  0 lvm   /home
├─sdc4              8:36   0   835G  0 part
│ └─md5             9:5    0 834,8G  0 raid1
│   └─vg1-lvdata 253:2    0 830,8G  0 lvm   /usr/local/share/data
└─sdc5              8:37   0     1M  0 part

那么,为什么lvdata在三个不同的 RAID1 段上显示了 3 次,并且为什么在同一个非预期段上同时存在lvrootlvdata

答案1

按照frostshutz 的建议(谢谢!),我意识到我已经设置了一个卷组来保护所有三个RAID1 物理卷。我应该为每个 RAID1 段创建一个卷组。那是我的错。

相关内容