如何判断 RAID1 驱动器对是否镜像成功?

如何判断 RAID1 驱动器对是否镜像成功?

这不是一个紧急问题,但我想知道我目前是否正在使用我的两个硬盘(和/或我是否可以解决这个问题)。

本质上,我购买了这台没有操作系统的计算机并且我已经成功安装了 Ubuntu Server。

电脑自带23TB 硬盘。

我的理解是,我可以使用 RAID0 配置来获得 6 TB 的存储空间,或者使用 RAID1 配置,其中 1 个 3 TB 驱动器镜像另一个 3 TB 驱动器。

鉴于我已经开始在服务器上运行分析,我可以镜像硬盘(RAID1)。

但是,我认为我并没有成功做到这一点。例如,如果我检查我的/proc/mdstat文件,它显示的内容如下:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
      2930264064 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sda[1](S) sdb[0](S)
      5040 blocks super external:imsm

unused devices: <none>

同样,这就是这些驱动器的识别方式lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

这是我正在使用的可用空间df

Filesystem      1K-blocks      Used  Available Use% Mounted on
udev             16370772         0   16370772   0% /dev
tmpfs             3280440       940    3279500   1% /run
/dev/md126p2   2882700496 223265236 2512931992   9% /
tmpfs            16402180         0   16402180   0% /dev/shm
tmpfs                5120         0       5120   0% /run/lock
tmpfs            16402180         0   16402180   0% /sys/fs/cgroup
/dev/md126p1       523248      6152     517096   2% /boot/efi
tmpfs             3280436         0    3280436   0% /run/user/1000

因此,我的问题如下:

  1. 我实际上是在用 RAID1 配置镜像硬盘吗?
    如果是这样,如果出现问题,我该如何恢复硬盘?

    /proc/mdstat文件中可以看出,驱动器之间存在某种链接(因为在第二行中md126列出了)super external:/md127/0

  2. 如果两个硬盘目前都没有使用(用于 RAID1 镜像),我需要更改什么?我可以开始镜像我的第一个硬盘而不删除第一个硬盘上的所有内容吗?

我转换了 2 个答案来为该问题提供更多信息(请参见下文)。

评论/更新 #1

如果我使用 MD 管理功能mdadm,那么我可以看到以下信息:

我相信这是针对第一个 RAID 硬盘的:

$ sudo mdadm --detail /dev/md126
/dev/md126:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb
$ sudo mdadm --detail /dev/md126p1
/dev/md126p1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 524288 (512.00 MiB 536.87 MB)
     Used Dev Size : 18446744073709551615
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

$ sudo mdadm --detail /dev/md126p2
/dev/md126p2:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2929737728 (2794.02 GiB 3000.05 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

我相信这是针对第二个 RAID 硬盘的:

$ sudo mdadm --detail /dev/md127
/dev/md127:
           Version : imsm
        Raid Level : container
     Total Devices : 2

   Working Devices : 2


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
     Member Arrays : /dev/md/Volume1

    Number   Major   Minor   RaidDevice

       -       8        0        -        /dev/sda
       -       8       16        -        /dev/sdb

否则,我猜测 RAID1 配置已设置完毕(这就是md126p1和所md126p2代表的意思)?

例如,它确实说的Raid Level : raid1是第一个驱动器,但我不知道为什么它没有说第二个驱动器

为了在线发布,我将 UUID 设置为“xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx”,但我还提供了精确的输出。

还有另外 4 个文件我可以在里面查找更多信息,其中包括我认为指的是第二个驱动器的“Volume1”?

$ ls /dev/md/
imsm0      Volume1    Volume1p1  Volume1p2
~$ sudo mdadm --detail /dev/md/Volume1
/dev/md/Volume1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

还有mdadm --create、、mdadm --growmdadm --incremental函数。

仅供参考,上完这门课后我决定添加以下笔记:https://www.udemy.com/course/the-complete-ubuntu-linux-server-administration-course/

评论/更新 #2

1)您可以使用 查看以下信息sudo fdisk -l

Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    1050623    1048576  512M EFI System
/dev/sda2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    1050623    1048576  512M EFI System
/dev/sdb2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/md126: 2.7 TiB, 3000590401536 bytes, 5860528128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device         Start        End    Sectors  Size Type
/dev/md126p1    2048    1050623    1048576  512M EFI System
/dev/md126p2 1050624 5860526079 5859475456  2.7T Linux filesystem

因为这已经说明了 /dev/sdb 是一个 Linux 文件系统,所以我认为这部分是可以的。

为了在线发布,我将 UUID 设置为“xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx”,但我还提供了精确的输出。

2)虽然我想谨慎行事,但我认为下一步涉及命令mkfs.ext4。但是,在执行可能(或可能不会)影响我当前文件系统的操作之前,我想小心谨慎并了解更多信息。

如果我尝试使用该mount命令,那么我当前看到的内容如下:

$:/mnt$ sudo mount /dev/sda1 /mnt/test1
mount: /mnt/test1: special device /dev/sda1 does not exist.
$:/mnt$ sudo mount /dev/sda2 /mnt/test1
mount: /mnt/test1: special device /dev/sda2 does not exist.
$:/mnt$ sudo mount /dev/sdb1 /mnt/test1
mount: /mnt/test1: /dev/sdb1 already mounted or mount point busy.
$:/mnt$ sudo mount /dev/sdb2 /mnt/test1
mount: /mnt/test1: /dev/sdb2 already mounted or mount point busy.

仅供参考,我之前了解过fdisk,但在之前的笔记中没有看到。此外,我添加了以下课程的新笔记:

https://www.linkedin.com/learning/building-an-ubuntu-home-server/add-storage-with-a-local-disk

答案1

尽管我仍然不确定如何测试数据恢复,但我认为我的问题包含了确认我已设置 RAID1 的答案:

同样,这就是这些驱动器的识别方式lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

如果没有 raid 配置,那么我认为上面不应该对两个硬盘(sda 和 sdb)都说“raid1”。

相关内容