我有一个 64 位 Ubuntu Jaunty 服务器(内核 2.6.28-17-server),安装在镜像 RAID 中的两个 SATA 磁盘(sdc 和 sde)上,这是我当前的 raid 配置:
猫/proc/mdstat 个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md5 :活动 raid1 sdd7[1] sdc7[0] 126953536 块 [2/2] [UU] md2 :活动 raid1 sdd3[1] sdc3[0] 979840 块 [2/2] [UU] md0 :活动 raid1 sdd1[1] sdc1[0] 96256 块 [2/2] [UU] md4 :活动 raid1 sdd6[1] sdc6[0] 9767424 块 [2/2] [UU] md3 :活动 raid1 sdd5[1] sdc5[0] 979840 块 [2/2] [UU] md1 :活动 raid1 sdd2[1] sdc2[0] 1951808 块 [2/2] [UU] 未使用的设备:无
# df -h 文件系统大小已使用可用使用率%安装于 /dev/md4 9.2G 922M 7.9G 11% / tmpfs 490M 0 490M 0%/lib/init/rw varrun 490M 316K 490M 1% /var/运行 varlock 490M 0 490M 0%/var/lock udev 490M 228K 490M 1% /dev tmpfs 490M 0 490M 0%/dev/shm lrm 490M 2.5M 488M 1% /lib/modules/2.6.28-17-server/volatile /dev/md0 89M 55M 30M 65% /boot /dev/md5 120G 96G 18G 85% /数据 /dev/md2 942M 18M 877M 2% /tmp /dev/md3 942M 186M 709M 21% /var
用户很快就填满了 /data Samba 共享,所以我添加了两个额外的硬盘(sda 和 sdb,它们的类型和大小完全相同),因为我想用它们创建另一个镜像,然后在 /data 里面安装新的 raid 设备。
我采取的步骤是在每个新磁盘上创建一个 Linux raid 自动检测分区,并确保它们大小相同。
fdisk /dev/sda -l 磁盘 /dev/sda:122.9 GB,122942324736 字节 255 个磁头、63 个扇区/磁道、14946 个磁柱 单位 = 16065 * 512 = 8225280 字节的柱面 磁盘标识符:0x000e2e78 设备启动开始结束块ID系统 /dev/sda1 1 14946 120053713+ fd Linux raid 自动检测
fdisk /dev/sdb -l 磁盘 /dev/sdb:122.9 GB,122942324736 字节 255 个磁头、63 个扇区/磁道、14946 个磁柱 单位 = 16065 * 512 = 8225280 字节的柱面 磁盘标识符:0x000ef08e 设备启动开始结束块ID系统 /dev/sdb1 1 14946 120053713+ fd Linux raid 自动检测
接下来我创建了新的镜像:
mdadm --create /dev/md6 --level=mirror --raid-devices=2 /dev/sda1 /dev/sdb1
这时我收到以下警告:
mdadm:/dev/sdb1 似乎包含 ext2fs 文件系统 大小=120053712K mtime=2009 年 12 月 19 日星期六 11:10:30 是否继续创建数组?
这很奇怪,因为我刚刚创建了新的分区,并且从未在其上创建文件系统,但无论如何,我继续等待同步完成。
一切似乎都很好:
猫/proc/mdstat 个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md6 :活动 raid1 sdb1[1] sda1[0] 120053632 块 [2/2] [UU] md5 :活动 raid1 sdd7[1] sdc7[0] 126953536 块 [2/2] [UU] md2 :活动 raid1 sdd3[1] sdc3[0] 979840 块 [2/2] [UU] md4 :活动 raid1 sdc6[0] sdd6[1] 9767424 块 [2/2] [UU] md3 :活动 raid1 sdc5[0] sdd5[1] 979840 块 [2/2] [UU] md1 :活动 raid1 sdc2[0] sdd2[1] 1951808 块 [2/2] [UU] md0 :活动 raid1 sdc1[0] sdd1[1] 96256 块 [2/2] [UU] 未使用的设备:无
mdadm --detail /dev/md6 /dev/md6: 版本:00.90 创建时间:2009 年 12 月 19 日星期六 11:33:31 突袭级别:raid1 数组大小:120053632(114.49 GiB 122.93 GB) 已使用设备大小:120053632 (114.49 GiB 122.93 GB) 突袭设备:2 设备总数:2 首选辅修科目:6 持久性:超级块是持久的 更新时间:2009年12月19日星期六12:24:14 状态:干净 活跃设备:2 工作装置:2 故障设备:0 备用设备:0 UUID:b901925f:b5ca90e0:afcf3cfb:09b88def(本地到主机 szerver.mtvsz.local) 事件:0.4 编号 主要 次要 RaidDevice 状态 0 8 1 0 活动同步 /dev/sda1 1 8 17 1 活动同步 /dev/sdb1
但一旦我重新启动,问题就出现了:
猫/proc/mdstat 个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md_d6 :非活动 sdb1[1](S) 120053632 块 md3 :活动 raid1 sdc5[0] sdd5[1] 979840 块 [2/2] [UU] md5 :活动 raid1 sdc7[0] sdd7[1] 126953536 块 [2/2] [UU] md2 :活动 raid1 sdc3[0] sdd3[1] 979840 块 [2/2] [UU] md1 :活动 raid1 sdd2[1] sdc2[0] 1951808 块 [2/2] [UU] md0 :活动 raid1 sdd1[1] sdc1[0] 96256 块 [2/2] [UU] md4 :活动 raid1 sdd6[1] sdc6[0] 9767424 块 [2/2] [UU] 未使用的设备:无
ls /dev/md* /dev/md0 /dev/md2 /dev/md4 /dev/md_d6 /dev/md_d6p2 /dev/md_d6p4 /dev/md1 /dev/md3 /dev/md5 /dev/md_d6p1 /dev/md_d6p3
我的问题是:md_d6 和它的分区到底是什么?
答案1
好的,这似乎是 mdadm 的一个错误,或者我错过了一个手动步骤。发出此命令后
mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf
重新启动后,RAID 阵列似乎已恢复正常。愚蠢的错误 :)