使用多个 RAID-0 驱动器上的 ZFS 时我可能会遇到哪些类型的故障?

使用多个 RAID-0 驱动器上的 ZFS 时我可能会遇到哪些类型的故障?

我正在 Dell R820 上构建 Proxmox VE,因为 Perc H710 卡不支持path-throughJBOD模式。

我已经进行了划分,在 14x 1.0TB SAS 驱动器上启用 RAID-0 用于zfs存储,并在 2x 320.0GB SSD 上启用 RAID-1 用于系统lvm

OpenZFS 官方文档说最佳做法是给予zfs驱动器的完全访问权限,并稍微提到了硬件 RAID-0 的一些问题。

path-through是否有人有在没有任何支持的戴尔服务器上构建 Proxmox VE 的经验,JBOD并且有没有什么办法可以zfs完全跳过硬件 RAID 来完全访问驱动器?

答案1

我目前面临同样的问题。据我研究,存在以下差异:

  • H710 上的 RAID0 允许使用电池支持的写入缓存。这可以加快速度,但 sync() ZFS 调用和磁盘上的实际 sync() 之间有很多逻辑。因此控制器可以欺骗 ZFS。这与使用 LVM 或某些硬件 RAID 并没有什么不同,所以我想这没有意义,但根据您的要求,这可能是一个问题。基本上,当电池 -> 磁盘路径上的写入失败时 - ZFS 不知道。

  • 看起来热插拔是不可能的——你必须为更换的磁盘重新创建这些 RAID0 驱动器,并且每次更改某些内容时都可能需要重新启动 :/

  • 需要测试的是实际的磁盘布局 - 如果您想在另一台机器上使用池和磁盘或许带有 RAID0 的 H710 会做一些愚蠢的事情,比如将元数据或特殊分区方案写入磁盘。我不知道。

除此之外,我还将使用 raid0 虚拟磁盘进行设置 - 让我们看看会发生什么,并准备好备份:)

  • 更奇怪的事情:

https://forum.proxmox.com/threads/proxmox-5-1-zfs-fresh-installation-unable-to-boot-due-to-grub.40984/#post-197732

您的 SCSI 控制器/BIOS/... 仅将第一个磁盘显示为可启动磁盘(如在 grub 救援 shell 中执行“ls”的屏幕截图所示)。仅使用那一个磁盘,grub 无法读取数据。您可以通过调整 BIOS/控制器设置来解决这个问题,否则您需要通过使用不同的磁盘作为启动磁盘并将 /boot 放在那里(失去启动冗余)来解决这个问题。

相关内容