我最近刚从假期回家,醒来后发现我的 RAID5 阵列中有两个磁盘被标记为故障。我能够通过强制使用故障磁盘并运行来启动 RAID,并且能够挽救其中的一些重要数据。
由于某种原因,服务器出现故障,不允许我在 sudo 或 su 下执行命令,因此我决定重新启动。重新启动后,驱动器名称发生了变化,所以现在我不知道哪些是最初出现故障的驱动器。
现在我想确定哪些磁盘坏了,以便更换它们,但这并不是一件容易的事。所有磁盘仍能正常工作,但至少有两个磁盘我肯定不想放在我的新 RAID 中。我希望你们都能试着帮我解决这个问题。
我已经在所有磁盘上运行了坏块,没有引发任何错误,但 smartctl 确实给了我一些有关磁盘的有趣信息,但我真的不知道该如何处理它。
这是今天最新更新的日志文件。
最新测试标记为最新,日期为(2014 年 3 月 11 日)。
- /dev/sda: http://paste.ubuntu.com/8808108/
- /dev/sdc: http://paste.ubuntu.com/8808123/
我只能发布两个链接,因此这里是其他的链接......
/dev/sdd: http://paste.ubuntu.com/8808126/
/dev/sde: http://paste.ubuntu.com/8808128/
提前致谢
乔纳森
答案1
/dev/sda
并且/dev/sdd
正在发生故障。未通过扩展自检的驱动器基本上注定会随时发生故障。自检是非常驱动器上的指示灯亮起,因此如果驱动器出现故障,则表明您应该立即更换驱动器。
此外,看起来驱动器过去曾过热,所以我建议检查服务器的气流。