将 xen 服务器迁移到新 HDD

将 xen 服务器迁移到新 HDD

我有一台 Xen Server,其中有多台虚拟机,这些虚拟机使用 DRBD 镜像到备份服务器,但空间不足。我想将其迁移到更大的硬盘,但我不知道该怎么做。

此外,服务器运行的磁盘是 RAID1 阵列的一部分。

我正在考虑创建一个磁盘映像并将其放在新磁盘上,但是我不知道当我将其放在更大的磁盘上时 LVM 分区会如何表现。

分区看起来是这样的:

NAME                                                  MAJ:MIN RM       SIZE RO TYPE  MOUNTPOINT
sdb                                                     8:16   0 232.9G  0 disk  
├─sdb1                                                  8:17   0 188.2M  0 part  
│ └─md0                                                 9:0    0 188.2M  0 raid1 /boot
└─sdb2                                                  8:18   0 232.7G  0 part  
  └─md1                                                 9:1    0 232.7G  0 raid1 
├─lvm--raid-root (dm-0)                           253:0    0    18G  0 lvm   /
├─lvm--raid-swap (dm-1)                           253:1    0   3.7G  0 lvm   [SWAP]
├─lvm--raid-mx (dm-2)                    253:2    0    50G  0 lvm   
├─lvm--raid-dns (dm-4)                   253:4    0   704M  0 lvm   
├─lvm--raid-drbd1--meta (dm-3)                    253:3    0    16M  0 lvm   
├─lvm--raid-apt (dm-5)                   253:5    0    30G  0 lvm   
├─lvm--raid-apt--boot (dm-6)             253:6    0   112M  0 lvm   
├─lvm--raid-puppet--disk (dm-7)          253:7    0     4G  0 lvm   
├─lvm--raid-wp--disk (dm-13)      253:13   0     8G  0 lvm   
├─lvm--raid-puppetmaster--disk (dm-8)    253:8    0     4G  0 lvm   
├─lvm--raid-bg--disk (dm-9)            253:9    0     4G  0 lvm   
├─lvm--raid-tracks--disk (dm-10)         253:10   0     4G  0 lvm   
├─lvm--raid-drbd3--meta (dm-14)                   253:14   0    16M  0 lvm   
├─lvm--raid-og--disk (dm-11)         253:11   0     4G  0 lvm   
├─lvm--raid-sql--disk (dm-12)            253:12   0     4G  0 lvm   
├─lvm--raid-drbd4--meta (dm-15)                   253:15   0    16M  0 lvm   
├─lvm--raid-drbd5--meta (dm-16)                   253:16   0    16M  0 lvm   
├─lvm--raid-drbd6--meta (dm-17)                   253:17   0    16M  0 lvm   
├─lvm--raid-drbd7--meta (dm-18)                   253:18   0    16M  0 lvm   
├─lvm--raid-drbd8--meta (dm-19)                   253:19   0    16M  0 lvm   
├─lvm--raid-monitor--disk (dm-20)        253:20   0     4G  0 lvm   
├─lvm--raid-mailer--disk (dm-21) 253:21   0     4G  0 lvm   
├─lvm--raid-sk--disk (dm-22)            253:22   0     4G  0 lvm   
└─lvm--raid-docs--disk (dm-23)           253:23   0     8G  0 lvm   
sda                                                     8:0    0 232.9G  0 disk  
├─sda1                                                  8:1    0 188.2M  0 part  
│ └─md0                                                 9:0    0 188.2M  0 raid1 /boot
└─sda2                                                  8:2    0 232.7G  0 part  
  └─md1                                                 9:1    0 232.7G  0 raid1 
├─lvm--raid-root (dm-0)                           253:0    0    18G  0 lvm   /
├─lvm--raid-swap (dm-1)                           253:1    0   3.7G  0 lvm   [SWAP]
├─lvm--raid-mx (dm-2)                    253:2    0    50G  0 lvm   
├─lvm--raid-dns (dm-4)                   253:4    0   704M  0 lvm   
├─lvm--raid-drbd1--meta (dm-3)                    253:3    0    16M  0 lvm   
├─lvm--raid-apt (dm-5)                   253:5    0    30G  0 lvm   
├─lvm--raid-apt--boot (dm-6)             253:6    0   112M  0 lvm   
├─lvm--raid-puppet--disk (dm-7)          253:7    0     4G  0 lvm   
├─lvm--raid-wp--disk (dm-13)      253:13   0     8G  0 lvm   
├─lvm--raid-puppetmaster--disk (dm-8)    253:8    0     4G  0 lvm   
├─lvm--raid-bg--disk (dm-9)            253:9    0     4G  0 lvm   
├─lvm--raid-tracks--disk (dm-10)         253:10   0     4G  0 lvm   
├─lvm--raid-drbd3--meta (dm-14)                   253:14   0    16M  0 lvm   
├─lvm--raid-og--disk (dm-11)         253:11   0     4G  0 lvm   
├─lvm--raid-sql--disk (dm-12)            253:12   0     4G  0 lvm   
├─lvm--raid-drbd4--meta (dm-15)                   253:15   0    16M  0 lvm   
├─lvm--raid-drbd5--meta (dm-16)                   253:16   0    16M  0 lvm   
├─lvm--raid-drbd6--meta (dm-17)                   253:17   0    16M  0 lvm   
├─lvm--raid-drbd7--meta (dm-18)                   253:18   0    16M  0 lvm   
├─lvm--raid-drbd8--meta (dm-19)                   253:19   0    16M  0 lvm   
├─lvm--raid-monitor--disk (dm-20)        253:20   0     4G  0 lvm   
├─lvm--raid-mailer--disk (dm-21) 253:21   0     4G  0 lvm   
├─lvm--raid-sk--disk (dm-22)            253:22   0     4G  0 lvm   
└─lvm--raid-docs--disk (dm-23)           253:23   0     8G  0 lvm   
sr0                                                    11:0    1  1024M  0 rom   
drbd2                                                 147:2    0   704M  0 disk  
drbd1                                                 147:1    0    50G  0 disk  
drbd8                                                 147:8    0    30G  0 disk  
drbd7                                                 147:7    0   112M  0 disk  
drbd3                                                 147:3    0     8G  1 disk  
drbd6                                                 147:6    0     4G  1 disk  
drbd5                                                 147:5    0     4G  0 disk  
drbd4                                                 147:4    0     4G  0 disk 

感谢所有建议!

答案1

如果您可以在 Xen VM 关闭时执行此操作,那么任何答案都与 Xen 无关。我看不出您的 LVM 设置和 DRBD 之间的关系,因此可能正确的问题是:

  • 如何扩展 DRBD 卷?
  • 如何扩展逻辑卷(当卷组没有剩余可用空间时)?

此外,还不清楚您是否要为现有虚拟机添加存储(即扩展其存储)或是否为新的虚拟机。

相关内容