我可以将物理驱动器组合成单个卷以用作 RAID 的一部分吗?

我可以将物理驱动器组合成单个卷以用作 RAID 的一部分吗?

我有一台家庭媒体服务器,目前使用 mdadm 在 Raid5 中安装了 4 个 4TB 驱动器。这为我提供了 12TB 的空间,但空间已经快用完了。我想增加更多空间,但想使用更大的驱动器。我计划最终在 Raid5 中安装 3 个 12TB 驱动器,但不想一次性花那么多钱。

我想知道以下途径是否可行;

  1. 购买并安装单个 12TB 硬盘并创建一个 8TB 分区和一个 4TB 分区。
  2. 将现有数据的 8TB 复制到 8 TB 分区,将剩余的 4TB 复制到新的 4TB 分区。
  3. 使用 LVM 将 4TB 驱动器合并为 2 个 8TB 逻辑卷。
  4. 使用 mdadm 将我的一个物理 8TB 和 2 个逻辑 8TB 卷合并为一个 16TB RAID5 阵列(保留物理 8TB 驱动器上的数据)。
  5. 将另一个分区上的 4TB 数据复制到新的 RAID 卷中,剩下 4TB 的空间。
  6. 当我快要填满这个空间时(可能要一年或更长时间),我会购买 2 个新的 12TB 硬盘,在每个硬盘上创建 8TB 分区,将 RAID 移到 3 个 12TB 硬盘上,然后将分区扩展到 12TB,创建一个 24TB 的 RAID5 硬盘

这能行吗?

有谁有更聪明的方法来做到这一点,而不需要立即购买 3 个驱动器?

答案1

好吧,这并没有引起太多的关注和兴趣,但我还是尝试了一下。答案是,这确实有效。花了几天时间磨练 RAID 才达到这个目的。以下是证明(第 4 步之后)。

$ sudo lsblk
NAME                 MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
loop0                  7:0    0  97.8M  1 loop  /snap/core/10185
loop1                  7:1    0  97.7M  1 loop  /snap/core/10126
loop2                  7:2    0  55.4M  1 loop  /snap/core18/1932
loop3                  7:3    0  69.2M  1 loop  /snap/lxd/18077
loop4                  7:4    0  69.2M  1 loop  /snap/lxd/18137
loop5                  7:5    0  55.3M  1 loop  /snap/core18/1885
sda                    8:0    0   3.7T  0 disk  
└─sda1                 8:1    0   3.7T  0 part  
  └─8tbraidvol1-vol1 253:0    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdb                    8:16   0   3.7T  0 disk  
└─sdb1                 8:17   0   3.7T  0 part  
  └─8tbraidvol1-vol1 253:0    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdc                    8:32   0   3.7T  0 disk  
└─sdc1                 8:33   0   3.7T  0 part  
  └─8tbraidvol2-vol2 253:1    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sdd                    8:48   0   3.7T  0 disk  
└─sdd1                 8:49   0   3.7T  0 part  
  └─8tbraidvol2-vol2 253:1    0   7.3T  0 lvm   
    └─md127            9:127  0  14.6T  0 raid5 /mnt/raid
sde                    8:64   1  10.9T  0 disk  
├─sde1                 8:65   1   7.3T  0 part  
│ └─md127              9:127  0  14.6T  0 raid5 /mnt/raid
└─sde2                 8:66   1   3.7T  0 part  /mnt/spare
sr0                   11:0    1  1024M  0 rom   
nvme0n1              259:0    0 465.8G  0 disk  
├─nvme0n1p1          259:1    0   512M  0 part  /boot/efi
└─nvme0n1p2          259:2    0 465.3G  0 part  /

$ sudo df -h
Filesystem      Size  Used Avail Use% Mounted on
udev             16G     0   16G   0% /dev
tmpfs           3.2G  4.2M  3.2G   1% /run
/dev/nvme0n1p2  457G  129G  305G  30% /
tmpfs            16G     0   16G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            16G     0   16G   0% /sys/fs/cgroup
/dev/nvme0n1p1  511M  7.8M  504M   2% /boot/efi
/dev/loop1       98M   98M     0 100% /snap/core/10126
/dev/loop0       98M   98M     0 100% /snap/core/10185
/dev/loop2       56M   56M     0 100% /snap/core18/1932
/dev/loop3       70M   70M     0 100% /snap/lxd/18077
/dev/loop5       56M   56M     0 100% /snap/core18/1885
/dev/loop4       70M   70M     0 100% /snap/lxd/18137
tmpfs           3.2G     0  3.2G   0% /run/user/1000
/dev/md127       15T  6.8T  7.0T  50% /mnt/raid
/dev/sde2       3.6T  3.3T  109G  97% /mnt/spare

相关内容