确定 Ubuntu 服务器上的软件 RAID 配置

确定 Ubuntu 服务器上的软件 RAID 配置

我有一个 Ubuntu 盒子,是由一位现在不在我身边的管理员安装的。我不知道他如何配置 RAID,也没有在 Linux 系统上设置软件 RAID 的经验。

我想弄清楚“系统中实际使用的 RAID 布局是什么?”。

安装了两个软件包:dmraidmdadm,所以它们让我更加困惑。

物理机在 /dev/sda、/dev/sdb 上有两个相同的 1 TB 硬盘。以下是您可能需要的各种命令的列表...

输出dmraid -r

/dev/sdb: isw, "isw_ffbjceeci", GROUP, ok, 1953525166 sectors, data@ 0
/dev/sda: isw, "isw_ffbjceeci", GROUP, ok, 1953525166 sectors, data@ 0

输出mdadm --detail --scan

ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d10f206b:f0ccf4b7:ffedda3d:00dc2380

输出mdadm --detail /dev/md0

/dev/md0:
        Version : 00.90
  Creation Time : Thu Apr  8 23:41:19 2010
     Raid Level : raid1
     Array Size : 964879808 (920.18 GiB 988.04 GB)
  Used Dev Size : 964879808 (920.18 GiB 988.04 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Jul 30 17:52:26 2012
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : d10f206b:f0ccf4b7:ffedda3d:00dc2380
         Events : 0.57178142

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1     252        1        1      active sync   /dev/block/252:1

输出fdisk -l

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000cb9b2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1      120122   964879933+  fd  Linux raid autodetect
/dev/sda2          120123      121601    11880067+   5  Extended
/dev/sda5          120123      121601    11880036   fd  Linux raid autodetect

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000cb9b2

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1      120122   964879933+  fd  Linux raid autodetect
/dev/sdb2          120123      121601    11880067+   5  Extended
/dev/sdb5          120123      121601    11880036   fd  Linux raid autodetect

Disk /dev/md0: 988.0 GB, 988036923392 bytes
2 heads, 4 sectors/track, 241219952 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

输出cat /etc/fstab

# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    defaults        0       0
# / was on /dev/md0 during installation
UUID=0cf600bf-ec3e-4898-ae6b-743b40f1cde0 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md1 during installation
UUID=833dd62b-8127-48b6-affe-981b1236158c none            swap    sw              0       0

那么,即时删除 dmraid 或 mdadm 之一是否安全?如果可以,我应该删除哪一个来删除冗余 RAID 配置?


输出cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 dm-1[1]
      964879808 blocks [2/1] [_U]

unused devices: <none>

一些澄清:

由于当前系统无论如何都运行良好,因此没有必要紧急更改配置或删除软件包。

但是我要从 Ubuntu 10.04 进行 dist-upgrade 到 Ubunt 12.04,并且我知道有一些变化,例如 grub2,所以我想确保这个配置不会导致任何问题。

以防万一,我想知道这个配置的详细信息。


输出ls -al /dev/mapper

ls -al /dev/mapper
total 0
drwxr-xr-x  2 root root     100 2012-05-04 10:02 .
drwxr-xr-x 15 root root    3540 2012-05-04 10:03 ..
crw-rw----  1 root root  10, 59 2012-05-04 10:03 control
brw-rw----  1 root disk 252,  0 2012-05-04 10:03 isw_ffbjceeci_Volume0
brw-rw----  1 root disk 252,  1 2012-05-04 10:03 isw_ffbjceeci_Volume01

答案1

首先,您有两个磁盘的 RAID 1 镜像。

其次,如果你不能从你告诉我们的内容中发现这一点,我强烈建议你保持原样,甚至不要考虑删除或更改配置 - 如果它有效,基本上就不要碰它。你为什么要考虑碰它呢?

答案2

我赞同 Chopper3 的说法,但我要补充一点,我认为您的 RAID 设备目前已降级;也就是说,镜像的一半已发生故障。您需要了解发生了什么,并修复此问题,或者让其他人来修复,以免另一半发生故障并导致服务器死机。我会确实希望在升级操作系统之前修复此问题。

话虽如此,根据我的经验, 的输出proc/mdstat有点奇怪。 我们可以将 的输出ls -al /dev/mapper添加到问题中吗?

编辑:我的话,不寻常。我从未见过 RAID-1 以这种方式完成:它似乎是一个 md 镜像,其中一半是一个完全正常工作的 dm 镜像,另一半丢失了。我必须停止对此提供任何进一步的建议,因为我不明白为什么有人会这样做,而且 dm raid 不是我的领域。

相关内容