分析损坏磁盘的 SMART 自检

分析损坏磁盘的 SMART 自检

我最近刚从假期回家,醒来后发现我的 RAID5 阵列中有两个磁盘被标记为故障。我能够通过强制使用故障磁盘并运行来启动 RAID,并且能够挽救其中的一些重要数据。

由于某种原因,服务器出现故障,不允许我在 sudo 或 su 下执行命令,因此我决定重新启动。重新启动后,驱动器名称发生了变化,所以现在我不知道哪些是最初出现故障的驱动器。

现在我想确定哪些磁盘坏了,以便更换它们,但这并不是一件容易的事。所有磁盘仍能正常工作,但至少有两个磁盘我肯定不想放在我的新 RAID 中。我希望你们都能试着帮我解决这个问题。

我已经在所有磁盘上运行了坏块,没有引发任何错误,但 smartctl 确实给了我一些有关磁盘的有趣信息,但我真的不知道该如何处理它。

这是今天最新更新的日志文件。

最新测试标记为最新,日期为(2014 年 3 月 11 日)。

我只能发布两个链接,因此这里是其他的链接......

/dev/sdd: http://paste.ubuntu.com/8808126/
/dev/sde: http://paste.ubuntu.com/8808128/

提前致谢

乔纳森

答案1

/dev/sda并且/dev/sdd正在发生故障。未通过扩展自检的驱动器基本上注定会随时发生故障。自检是非常驱动器上的指示灯亮起,因此如果驱动器出现故障,则表明您应该立即更换驱动器。

此外,看起来驱动器过去曾过热,所以我建议检查服务器的气流。

相关内容