在 EC2 上挂载 RAID0 EBS 阵列

在 EC2 上挂载 RAID0 EBS 阵列

我在两个 EBS 卷上有一个 RAID 0,在 EC2 上运行良好,直到实例停止,创建了 EBS 卷的快照,然后再次重新启动。现在,当我进入mountRAID 阵列时,我似乎无法这样做。

$ sudo mdadm --assemble -v /dev/md0 /dev/xvdj1 /dev/xvdk1

但当我尝试mount

$ mount -t ext4 /dev/md0 /mnt

我明白了

mount: wrong fs type, bad option, bad superblock on /dev/md0,
   missing codepage or helper program, or other error
   In some cases useful info is found in syslog - try
   dmesg | tail  or so

我究竟做错了什么?

笔记:是的,我确信文件系统是 ext4 并且它上面有相当多的数据。

答案1

根据您的发行版,MDADM RAID 阵列之上可能有一个 LVM 层。您可以确认您的设备上存在什么类型的文件系统(如果有),/dev/md0如下所示:

$ sudo tune2fs -l /dev/md0
tune2fs 1.39 (29-May-2006)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.

这里这个 RAID 阵列上没有直接的任何文件系统。您可以查看上面是否有 LVM 层,如下所示:

$ sudo pvs
  PV         VG         Fmt  Attr PSize   PFree
  /dev/md0   lvm-raid2  lvm2 a--    2.73T    0 
  /dev/sda6  VolGroup00 lvm2 a--  230.47G    0 

$ sudo vgs
  VG         #PV #LV #SN Attr   VSize   VFree
  VolGroup00   1   2   0 wz--n- 230.47G    0 
  lvm-raid2    1   1   0 wz--n-   2.73T    0 

$ sudo lvs
  LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  LogVol00 VolGroup00 -wi-ao 228.53G                                      
  LogVol01 VolGroup00 -wi-ao   1.94G                                      
  lvm0     lvm-raid2  -wi-ao   2.73T                       

在上面我们可以看到该设备/dev/md0是 LVM 使用的物理设备。卷组,lvm-raid2.此 VG 有一个逻辑卷 LV lvm0。所以这个 LV 最终将包含一个文件系统,并且是我将在我的场景中安装的设备:

$ sudo tune2fs -l /dev/lvm-raid2/lvm0 
tune2fs 1.39 (29-May-2006)
Filesystem volume name:   <none>
Last mounted on:          <not available>
Filesystem UUID:          285f5221-1637-4018-adf2-687a3c237f56
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_super large_file
Default mount options:    (none)
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              366297088
Block count:              732565504
Reserved block count:     36622312
Free blocks:              266723411
Free inodes:              366282770
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      849
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         16384
Inode blocks per group:   512
Filesystem created:       Wed Dec 16 23:35:01 2009
Last mount time:          Tue May 27 08:41:04 2014
Last write time:          Tue May 27 08:41:04 2014
Mount count:              53
Maximum mount count:      -1
Last checked:             Wed Dec 16 23:35:01 2009
Check interval:           0 (<none>)
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:       128
Journal inode:            8
Default directory hash:   tea
Directory Hash Seed:      c024e605-e31a-4593-ad2c-db2d80272d59
Journal backup:           inode blocks
[root@skinner ~]# tune2fs -l /dev/lvm-raid2/lvm0 | grep type
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_super large_file
Filesystem OS type:       Linux

LVM 还维护用于安装在下方的设备手柄/dev/mapper

$ sudo mount  | grep lvm0
/dev/mapper/lvm--raid2-lvm0 on /export/raid1 type ext3 (rw)

因此,您可能会发现引用了那些而不是/dev/<LVM VG>/<LVM LV>.

相关内容