LVM 上的 DRBD 或具有多个磁盘的 DRBD 上的 LVM

LVM 上的 DRBD 或具有多个磁盘的 DRBD 上的 LVM

我有 4 台相同的服务器,每台服务器有 1+3 SSD 用于数据(无 RAID)+ 2x10G 和 2x1G 网络。我想要一个带有单个导出的主动-被动 NFS 设置。我可能会使用 2 个集群,因此 2 个主动 NFS 服务器/导出将由许多客户端(作为主目录)使用 autofs 安装,因此哪个服务器有数据并不重要(如果一个集群关闭,则始终有一个正在运行的集群是一个优势 - 升级/迁移/故障);两者都将备份。我最初考虑使用 CEPH,但是:

  • 使用 NFS 导出并拥有 u/g/p 配额我认为这是不可能的(?)
  • 直接从客户端转到 cephfs 会使事情变得复杂(隔离、访问控制等)
  • 加上副本 2 与 3 = 更大容量。

我还是不明白这是什么关系,或者它的优点和缺点是什么:

  1. 1xResource 和 3x(卷 < SSD)= 3x rdbd > 1xLV > XFS
  2. 1xResource 带有 1x rdbd < 1LV < 3xSSD = rdbd > [?LV >] XFS[关联]

我认为这类似于 RAID 0+1 或 1+0(具有非条带化的差异),因此选项 (1) 最好是复制单个磁盘(多个元磁盘),而不是复制单个卷(单个元磁盘发生全部故障的概率),在磁盘发生故障的情况下,后者更好......我认为?这完全取决于如何处理磁盘故障,对吗?还有其他建议或观点吗?

答案1

有了 4 台服务器和全 SSD(没有任何 RAID),您的配置只需要 Ceph 擦除编码设置!

  1. E/C 池创建(假设您已经有 Ceph 集群)

https://subscription.packtpub.com/book/cloud-&-networking/9781784393502/8/ch08lvl1sec89/creating-an-erasure-coded-pool

  1. 在 (1) E/C 池中新创建的 NFS 服务

https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/5/html/dashboard_guide/management-of-nfs-ganesha-exports-on-the-ceph-dashboard

不要使用 DRBD!由于巨大的复制开销,它的存储效率很低,而且“裂脑”是 DRBD 的别名……

相关内容