我在我的旧电脑上进行了 3 个磁盘的 raid 5,但主板坏了。我将所有磁盘放入一台新计算机中,但 raid 不再需要启动。启动电脑时,我可以看到所有磁盘,并且 mdadm -E /dev/sd [bcd]1 告诉我所有三个磁盘都是干净的。 Cat /proc/mdstat 说 /dev/md0 : inactive sdc13 sdd11 sdb10 我在这个机器上运行 fedora 15。非常感谢任何启动这次突袭的提示!
--已编辑-- 与此同时,我重新安装了操作系统(在一个新的独立磁盘上,该操作系统从来不是 raid 的一部分),并使用了 CentOS 7。
输出:
mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 822d3a00:cf68046c:45de1427:d65beb68
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Nov 10 22:19:29 2014
Checksum : 195e3a86 - correct
Events : 1527192
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing)
mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4
Internal Bitmap : 8 sectors from superblock
Update Time : Tue Nov 11 19:01:52 2014
Checksum : d11417ca - correct
Events : 1527199
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
3907024896 blocks super 1.1
unused devices: <none>
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
显然此时他丢失了一个磁盘(也不在 /dev 列表中),可能是移动计算机后电缆松动了。我现在正在办公室通过 SSH 访问它(我在那里花费了太多时间)。通常,第三个磁盘的 mdadm -E /dev/sdX1 会提供与其他两个磁盘类似的输出。
- - 编辑 - -
第三个磁盘的端口似乎坏了,将其连接到另一张卡后,我也得到了 mdadm -E 这个!
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67
Internal Bitmap : 8 sectors from superblock
Update Time : Fri May 4 09:51:16 2012
Checksum : 262a346f - correct
Events : 82967
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
cat /proc/mdstat 现在说
# cat /proc/mdstat
Personalities :
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
5860537344 blocks super 1.1
unused devices: <none>
那么,我现在如何让这个 raid 重新上线,至少足够长的时间来复制尽可能多的数据?
答案1
我假设您进行了全新安装并将驱动器添加到新计算机。
首先做一个:
mdadm --assemble --scan
并查看/proc/mdstat
阵列是否已激活。然后运行:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
再次获取新 mdadm.conf 中的配置信息。