我有 4 台相同的服务器,每台服务器有 1+3 SSD 用于数据(无 RAID)+ 2x10G 和 2x1G 网络。我想要一个带有单个导出的主动-被动 NFS 设置。我可能会使用 2 个集群,因此 2 个主动 NFS 服务器/导出将由许多客户端(作为主目录)使用 autofs 安装,因此哪个服务器有数据并不重要(如果一个集群关闭,则始终有一个正在运行的集群是一个优势 - 升级/迁移/故障);两者都将备份。我最初考虑使用 CEPH,但是:
- 使用 NFS 导出并拥有 u/g/p 配额我认为这是不可能的(?)
- 直接从客户端转到 cephfs 会使事情变得复杂(隔离、访问控制等)
- 加上副本 2 与 3 = 更大容量。
我还是不明白这是什么关系,或者它的优点和缺点是什么:
- 1xResource 和 3x(卷 < SSD)= 3x rdbd > 1xLV > XFS
- 1xResource 带有 1x rdbd < 1LV < 3xSSD = rdbd > [?LV >] XFS[关联]
我认为这类似于 RAID 0+1 或 1+0(具有非条带化的差异),因此选项 (1) 最好是复制单个磁盘(多个元磁盘),而不是复制单个卷(单个元磁盘发生全部故障的概率),在磁盘发生故障的情况下,后者更好......我认为?这完全取决于如何处理磁盘故障,对吗?还有其他建议或观点吗?
答案1
有了 4 台服务器和全 SSD(没有任何 RAID),您的配置只需要 Ceph 擦除编码设置!
- E/C 池创建(假设您已经有 Ceph 集群)
- 在 (1) E/C 池中新创建的 NFS 服务
不要使用 DRBD!由于巨大的复制开销,它的存储效率很低,而且“裂脑”是 DRBD 的别名……