向 RAID1 设置添加存储空间

向 RAID1 设置添加存储空间

目前我有一台 Ubuntu 18.04.6 LTS 服务器,其中有 2 个 6TB HD 在 RAID1 中设置,如下所示:

~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdd2[0] sdb2[1]
      5859412992 blocks super 1.2 [2/2] [UU]
      bitmap: 1/44 pages [4KB], 65536KB chunk

驱动器上的空间很快就会用完,所以我买了 2 个 16TB 硬盘,我想添加它们(已在服务器上物理连接但尚未设置)。据我所知,我无法将它们添加为单独的 raid1 配置(16TB 镜像 + 6TB 镜像),需要移动到 raid 10。这是真的吗?我不能只将两个 16TB 也放在 RAID1 中并安装为不同的文件夹吗?

我可以将 2x 16TB 硬盘与 2x 6TB 硬盘组合使用形成 RAID 10 吗?还是它们都必须是相同的大小?

如何在不丢失现有数据的情况下添加 2 个 HD 并迁移到新的 RAID 设置?

业务需求:

  1. 冗余/容错
  2. 快速读/写(大数据)
  3. 增加硬盘空间,不一定非要作为一个驱动器(如果更简单的话,可以是一个新的挂载点/文件夹)

更新:

按照下面链接中的说明,我使用以下命令将两个驱动器添加为附加 raid1,重新启动计算机,现在无法 ssh 进入。

https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04#creating-a-raid-1-array

~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME            SIZE FSTYPE            TYPE  MOUNTPOINT
sda            14.6T                   disk
sdb             5.5T                   disk
├─sdb1          953M vfat              part
└─sdb2          5.5T linux_raid_member part
  └─md0         5.5T LVM2_member       raid1
    ├─vg-swap 186.3G swap              lvm   [SWAP]
    ├─vg-root  93.1G ext4              lvm   /
    ├─vg-tmp   46.6G ext4              lvm   /tmp
    ├─vg-var   23.3G ext4              lvm   /var
    └─vg-home   5.1T ext4              lvm   /home
sdc            14.6T                   disk
sdd             5.5T                   disk
├─sdd1          953M vfat              part  /boot/efi
└─sdd2          5.5T linux_raid_member part
  └─md0         5.5T LVM2_member       raid1
    ├─vg-swap 186.3G swap              lvm   [SWAP]
    ├─vg-root  93.1G ext4              lvm   /
    ├─vg-tmp   46.6G ext4              lvm   /tmp
    ├─vg-var   23.3G ext4              lvm   /var
    └─vg-home   5.1T ext4              lvm   /home
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
sudo mkfs.ext4 -F /dev/md1
sudo mkdir -p /mnt/md1
sudo mount /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
Filesystem           Size  Used Avail Use% Mounted on
/dev/mapper/vg-root   92G  7.5G   79G   9% /
/dev/sdd1            952M  4.4M  947M   1% /boot/efi
/dev/mapper/vg-var    23G  6.0G   16G  28% /var
/dev/mapper/vg-tmp    46G   54M   44G   1% /tmp
/dev/mapper/vg-home  5.1T  2.5T  2.4T  51% /home
/dev/md1              15T   19M   14T   1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 metadata=1.2 name=mypc:0 UUID=someweirdhash
ARRAY /dev/md1 metadata=1.2 name=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: Generating /boot/initrd.img-4.15.0-166-generic
~$ sudo reboot

重启后无法 ssh 进入服务器。

没有这样做:(下面的最后两个零是什么?)我不确定这个命令的作用,想象它可以将新阵列设置为启动阵列,所以也许不运行它会破坏它:

~$ echo '/dev/md1 /mnt/md1 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab

相关内容