mdadm/LVM/RAID 问题

mdadm/LVM/RAID 问题

好吧,在这里发帖希望有人能帮忙。

所以我设置了一个 4x1.5TB RAID6 阵列。一切就绪。它运行良好。我复制了另外两个驱动器上的数据,然后将这两个驱动器扩展到阵列中。出现了一些小问题,但除此之外,它运行良好,而且花了很长时间。

我今天复制了最后一个驱动器上的数据,并按照相同的步骤将其扩展到阵列中,然后当然执行了“watch etc etc”命令来密切关注重塑,因为为什么不呢。

.... 一切进展顺利,大概到了 10-11% 之后我注意到... 不再更新了。

这件事发生的时候,我正在通过网络观察阵列文件系统中的某些东西......然后它突然锁定了。

我认为也许 watch 命令出了问题,所以我终止了它,然后cat /proc/mdstat从命令行执行了该操作。

什么也没得到。没有输出或任何东西,光标向下移动一行,但没有其他任何事情发生。

如果我尝试mdadm --detail /dev/md0,结果也是一样。什么也没有发生。

如果我尝试在阵列的已安装目录内执行 ls,我会得到根列表,但是当我尝试更深入地挖掘文件夹时,ls 会执行与前两个命令相同的操作并锁定,只是我甚至无法使用 ctrl-c 退出它。

我认为导致该问题的原因是我显示了 7 个状态为 D 的 smbd 进程,这些进程一定是我在观看视频文件并被锁定时遗留下来的。当然我无法杀死它们,系统不允许我这样做。

当然,我现在非常担心事情会变得一团糟,我会失去一切。我不想重新启动,因为我不知道这是否会破坏任何东西。

编辑:好的..所以:

我重新启动了(我实际上必须关闭机器。它不会死机。)

我找到了这个:http://www.linuxquestions.org/questions/linux-server-73/raid-5-mdadm-grow-interrupted-what-to-do-next-602671/

我试过了,但没有成功。我得到了

mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted

当我在任意驱动器上执行 mdadm -E 时,我得到:

/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID : 
3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009 
Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array 
Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7 
Preferred Minor : 0

Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7)

Update Time : Tue Dec  1 20:48:48 2009
      State : active

Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943

 Chunk Size : 64K

  Number   Major   Minor   RaidDevice State

this 5 8 17 5 active sync /dev/sdb1

0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed

那个“故障删除”是 /dev/sdc1,这是我刚刚添加的驱动器,并试图用来扩大阵列。

然后我尝试了我在这里找到的方法:http://ubuntuforums.org/showpost.php?p=2526794&postcount=2

sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing

返回:

mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.

cat /proc/mdstat

给出:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]

sudo lvdisplay raid

给出:

--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0

好极了!一切都很美好!不是。

sudo mount /dev/raid/raid /blah

给我:

mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so

唉,如果我有头发,我肯定会把它拔掉。救命。我建议不要重新下载 6TB 的东西 :P

答案1

第一步:什么也不要做。第二步:给 linux-raid 邮件列表发送电子邮件。

如果重塑过程真的出了问题,NeilB(软件 RAID 维护者)将尽力提供帮助。

答案2

它使用哪种文件系统进行格式化?您是否尝试过在设备上使用 fsck -Vr 来查看它显示的内容?

如果不是 6TB,我建议使用 dd 和 gzip 制作备份映像,但我怀疑您是否有足够的外部存储空间来执行此操作。

祝你好运。

相关内容