我们的服务器最近出现磁盘故障,因此我们的托管服务提供商在 CentOS 中放入了一个新磁盘,以便我们登录并查看是否可以恢复数据。
我们在软件 RAID0 配置中拥有 2 x 120 GB SSD 驱动器 - 我们的主机为我们设置了它;我们没有自己做,因为我们缺乏“专门知识” - 这就是我在这里发布这篇文章的原因。
以下是输出fdisk -l-https://i.stack.imgur.com/Ne5Ql.png
SDB 和 SDC 是 raid 驱动器。
我尝试使用以下命令来安装驱动器:https://i.stack.imgur.com/310Iu.png
我进行了一些研究,发现对于软件 RAID,你可以使用管理工具来自动扫描/组装,但是这也不起作用:
[root@localhost ~]# mdadm -A --scan
mdadm: No arrays found in config file or automatically
我尝试运行检查选项,这是输出:
[root@localhost ~]# mdadm --examine /dev/sdb
/dev/sdb:
MBR Magic : aa55
Partition[0] : 204800 sectors at 2048 (type 83)
Partition[1] : 20480000 sectors at 206848 (type 83)
Partition[2] : 8192000 sectors at 20686848 (type 82)
Partition[3] : 435964672 sectors at 28878848 (type 05)
[root@localhost ~]# mdadm --examine /dev/sdb1
mdadm: No md superblock detected on /dev/sdb1.
[root@localhost ~]# mdadm --examine /dev/sdb2
mdadm: No md superblock detected on /dev/sdb2.
[root@localhost ~]# mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
[root@localhost ~]# mdadm --examine /dev/sdb4
mdadm: No md superblock detected on /dev/sdb4.
[root@localhost ~]# mdadm --examine /dev/sdc
mdadm: No md superblock detected on /dev/sdc.
[root@localhost ~]# mdadm --examine /dev/sdc1
mdadm: cannot open /dev/sdc1: No such file or directory
下面是输出猫/proc/mdstat
root@localhost ~]# cat /proc/mdstat
Personalities :
unused devices: <none>
我之前遇到过类似的问题,并且已经问过 -从 raid0 设置重新安装两个旧磁盘以恢复数据
上次我设法修复了它,因为阵列是 100% 干净的,并且我设法通过运行以下命令来安装它:mkdir /mnt/oldData && mount /dev/md127 /mnt/oldData但这次问题似乎有所不同。没有 /dev/md* - 请参阅此 -> i.imgur.com/EMxrwOx.png
有人可以帮忙吗?
答案1
上次您有旧磁盘来获取数据。如果您没有发生故障的旧磁盘,那么您实际上会丢失一半的数据。您将无法恢复这些数据。如果您的数据足够重要,您可以尝试将两个磁盘都发送给数据恢复公司。即使您可以访问旧磁盘,如果您无法安装它,您也无法获取数据。
让您的主机重新配置您的阵列以使用 RAID0 以外的其他东西并从备份中恢复(您有备份,对吗?)。其次,找到一个在生产系统中甚至不会接触 RAID0 的新主机。