目前我有一台 Ubuntu 18.04.6 LTS 服务器,其中有 2 个 6TB HD 在 RAID1 中设置,如下所示:
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdd2[0] sdb2[1]
5859412992 blocks super 1.2 [2/2] [UU]
bitmap: 1/44 pages [4KB], 65536KB chunk
驱动器上的空间很快就会用完,所以我买了 2 个 16TB 硬盘,我想添加它们(已在服务器上物理连接但尚未设置)。据我所知,我无法将它们添加为单独的 raid1 配置(16TB 镜像 + 6TB 镜像),需要移动到 raid 10。这是真的吗?我不能只将两个 16TB 也放在 RAID1 中并安装为不同的文件夹吗?
我可以将 2x 16TB 硬盘与 2x 6TB 硬盘组合使用形成 RAID 10 吗?还是它们都必须是相同的大小?
如何在不丢失现有数据的情况下添加 2 个 HD 并迁移到新的 RAID 设置?
业务需求:
- 冗余/容错
- 快速读/写(大数据)
- 增加硬盘空间,不一定非要作为一个驱动器(如果更简单的话,可以是一个新的挂载点/文件夹)
更新:
按照下面链接中的说明,我使用以下命令将两个驱动器添加为附加 raid1,重新启动计算机,现在无法 ssh 进入。
~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 14.6T disk
sdb 5.5T disk
├─sdb1 953M vfat part
└─sdb2 5.5T linux_raid_member part
└─md0 5.5T LVM2_member raid1
├─vg-swap 186.3G swap lvm [SWAP]
├─vg-root 93.1G ext4 lvm /
├─vg-tmp 46.6G ext4 lvm /tmp
├─vg-var 23.3G ext4 lvm /var
└─vg-home 5.1T ext4 lvm /home
sdc 14.6T disk
sdd 5.5T disk
├─sdd1 953M vfat part /boot/efi
└─sdd2 5.5T linux_raid_member part
└─md0 5.5T LVM2_member raid1
├─vg-swap 186.3G swap lvm [SWAP]
├─vg-root 93.1G ext4 lvm /
├─vg-tmp 46.6G ext4 lvm /tmp
├─vg-var 23.3G ext4 lvm /var
└─vg-home 5.1T ext4 lvm /home
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
sudo mkfs.ext4 -F /dev/md1
sudo mkdir -p /mnt/md1
sudo mount /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg-root 92G 7.5G 79G 9% /
/dev/sdd1 952M 4.4M 947M 1% /boot/efi
/dev/mapper/vg-var 23G 6.0G 16G 28% /var
/dev/mapper/vg-tmp 46G 54M 44G 1% /tmp
/dev/mapper/vg-home 5.1T 2.5T 2.4T 51% /home
/dev/md1 15T 19M 14T 1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 metadata=1.2 name=mypc:0 UUID=someweirdhash
ARRAY /dev/md1 metadata=1.2 name=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: Generating /boot/initrd.img-4.15.0-166-generic
~$ sudo reboot
重启后无法 ssh 进入服务器。
没有这样做:(下面的最后两个零是什么?)我不确定这个命令的作用,想象它可以将新阵列设置为启动阵列,所以也许不运行它会破坏它:
~$ echo '/dev/md1 /mnt/md1 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab