RAID 10 和 LVM

RAID 10 和 LVM

我刚刚在我的 DC 上设置了一个新的 SolusVM Xen 节点。我要求他们安装 CentOS6 和软件 RAID 10,并将 100GB 分配给根目录,然后将剩余部分分配给 Xen 的 LVM 组。全部采用软件 RAID 10。服务器有 4x1Tb 驱动器。

当我跑步时cat /proc/mdstat我得到了这个:

Personalities : [raid10] [raid1] 
md0 : active raid1 sdb1[1] sda1[0] sdc1[2](S) sdd1[3](S)
      255936 blocks super 1.0 [2/2] [UU]

md2 : active raid1 sdb3[1] sdc3[2](S) sdd3[3](S) sda3[0]
      4192192 blocks super 1.1 [2/2] [UU]

md1 : active raid10 sdc2[2](S) sdd2[3](S) sdb2[1] sda2[0]
      104791552 blocks super 1.1 2 near-copies [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

好的,看起来不错。运行时vgdisplay它告诉我有 3.23TB 可用,使用 RAID 10 时 LVM 上最多只能有 1.7 到 1.8 可用:

  --- Volume group ---
  VG Name               VolGroup
  System ID             
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               3.23 TiB
  PE Size               32.00 MiB
  Total PE              105888
  Alloc PE / Size       0 / 0   
  Free  PE / Size       105888 / 3.23 TiB

他们花了很长时间才回复我询问发生了什么事的单子。我说得对吗?这是一次拙劣的 RAID 10 安装,还是本来就应该如此?如果是这样,为什么呢?

答案1

根据您提供的信息,我的印象是卷组是由 4 个分区 sd[abcd]2 创建的,而不是由 md1 raid 阵列创建的。您应该运行 pvdisplay 和/或 pvs 来确认这一点。

如果正确的话,继续的方法是从 sd[abcd]2 中删除 LV、VG 和 PVS,重建 RAID 10,然后 pvcreate /dev/md1; vgcreate ...

相关内容