Linux Raid:神秘的 md_d 设备

Linux Raid:神秘的 md_d 设备

我有一个 64 位 Ubuntu Jaunty 服务器(内核 2.6.28-17-server),安装在镜像 RAID 中的两个 SATA 磁盘(sdc 和 sde)上,这是我当前的 raid 配置:

猫/proc/mdstat
个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

md5 :活动 raid1 sdd7[1] sdc7[0]
      126953536 块 [2/2] [UU]

md2 :活动 raid1 sdd3[1] sdc3[0]
      979840 块 [2/2] [UU]

md0 :活动 raid1 sdd1[1] sdc1[0]
      96256 块 [2/2] [UU]

md4 :活动 raid1 sdd6[1] sdc6[0]
      9767424 块 [2/2] [UU]

md3 :活动 raid1 sdd5[1] sdc5[0]
      979840 块 [2/2] [UU]

md1 :活动 raid1 sdd2[1] sdc2[0]
      1951808 块 [2/2] [UU]

未使用的设备:无
# df -h
文件系统大小已使用可用使用率%安装于
/dev/md4 9.2G 922M 7.9G 11% /
tmpfs 490M 0 490M 0%/lib/init/rw
varrun 490M 316K 490M 1% /var/运行
varlock 490M 0 490M 0%/var/lock
udev 490M 228K 490M 1% /dev
tmpfs 490M 0 490M 0%/dev/shm
lrm 490M 2.5M 488M 1% /lib/modules/2.6.28-17-server/volatile
/dev/md0 89M 55M 30M 65% /boot
/dev/md5 120G 96G 18G 85% /数据
/dev/md2 942M 18M 877M 2% /tmp
/dev/md3 942M 186M 709M 21% /var

用户很快就填满了 /data Samba 共享,所以我添加了两个额外的硬盘(sda 和 sdb,它们的类型和大小完全相同),因为我想用它们创建另一个镜像,然后在 /data 里面安装新的 raid 设备。

我采取的步骤是在每个新磁盘上创建一个 Linux raid 自动检测分区,并确保它们大小相同。

fdisk /dev/sda -l

磁盘 /dev/sda:122.9 GB,122942324736 字节
255 个磁头、63 个扇区/磁道、14946 个磁柱
单位 = 16065 * 512 = 8225280 字节的柱面
磁盘标识符:0x000e2e78

   设备启动开始结束块ID系统
/dev/sda1 1 14946 120053713+ fd Linux raid 自动检测
fdisk /dev/sdb -l

磁盘 /dev/sdb:122.9 GB,122942324736 字节
255 个磁头、63 个扇区/磁道、14946 个磁柱
单位 = 16065 * 512 = 8225280 字节的柱面
磁盘标识符:0x000ef08e

   设备启动开始结束块ID系统
/dev/sdb1 1 14946 120053713+ fd Linux raid 自动检测

接下来我创建了新的镜像:

mdadm --create /dev/md6 --level=mirror --raid-devices=2 /dev/sda1 /dev/sdb1

这时我收到以下警告:

mdadm:/dev/sdb1 似乎包含 ext2fs 文件系统
    大小=120053712K mtime=2009 年 12 月 19 日星期六 11:10:30
是否继续创建数组?

这很奇怪,因为我刚刚创建了新的分区,并且从未在其上创建文件系统,但无论如何,我继续等待同步完成。

一切似乎都很好:

猫/proc/mdstat
个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md6 :活动 raid1 sdb1[1] sda1[0]
      120053632 块 [2/2] [UU]

md5 :活动 raid1 sdd7[1] sdc7[0]
      126953536 块 [2/2] [UU]

md2 :活动 raid1 sdd3[1] sdc3[0]
      979840 块 [2/2] [UU]

md4 :活动 raid1 sdc6[0] sdd6[1]
      9767424 块 [2/2] [UU]

md3 :活动 raid1 sdc5[0] sdd5[1]
      979840 块 [2/2] [UU]

md1 :活动 raid1 sdc2[0] sdd2[1]
      1951808 块 [2/2] [UU]

md0 :活动 raid1 sdc1[0] sdd1[1]
      96256 块 [2/2] [UU]

未使用的设备:无
mdadm --detail /dev/md6
/dev/md6:
        版本:00.90
  创建时间:2009 年 12 月 19 日星期六 11:33:31
     突袭级别:raid1
     数组大小:120053632(114.49 GiB 122.93 GB)
  已使用设备大小:120053632 (114.49 GiB 122.93 GB)
   突袭设备:2
  设备总数:2
首选辅修科目:6
    持久性:超级块是持久的

    更新时间:2009年12月19日星期六12:24:14
          状态:干净
 活跃设备:2
工作装置:2
 故障设备:0
  备用设备:0

           UUID:b901925f:b5ca90e0:afcf3cfb:09b88def(本地到主机 szerver.mtvsz.local)
         事件:0.4

    编号 主要 次要 RaidDevice 状态
       0 8 1 0 活动同步 /dev/sda1
       1 8 17 1 活动同步 /dev/sdb1

但一旦我重新启动,问题就出现了:

猫/proc/mdstat
个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d6 :非活动 sdb1[1](S)
      120053632 块

md3 :活动 raid1 sdc5[0] sdd5[1]
      979840 块 [2/2] [UU]

md5 :活动 raid1 sdc7[0] sdd7[1]
      126953536 块 [2/2] [UU]

md2 :活动 raid1 sdc3[0] sdd3[1]
      979840 块 [2/2] [UU]

md1 :活动 raid1 sdd2[1] sdc2[0]
      1951808 块 [2/2] [UU]

md0 :活动 raid1 sdd1[1] sdc1[0]
      96256 块 [2/2] [UU]

md4 :活动 raid1 sdd6[1] sdc6[0]
      9767424 块 [2/2] [UU]

未使用的设备:无
ls /dev/md*
/dev/md0 /dev/md2 /dev/md4 /dev/md_d6 /dev/md_d6p2 /dev/md_d6p4
/dev/md1 /dev/md3 /dev/md5 /dev/md_d6p1 /dev/md_d6p3

我的问题是:md_d6 和它的分区到底是什么?

答案1

好的,这似乎是 mdadm 的一个错误,或者我错过了一个手动步骤。发出此命令后

mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf

重新启动后,RAID 阵列似乎已恢复正常。愚蠢的错误 :)

相关内容