rook

为什么 rook cephfs 存储类将 pv 数据存储在 2 个地方?
rook

为什么 rook cephfs 存储类将 pv 数据存储在 2 个地方?

我是 ceph 的新手,在裸机环境中使用 rook 运行 ceph。我的问题是:当您使用 rook cephfs provisioner 作为存储类并创建一个 pvc 分配给一个 pod 时,当创建 pv 时,有两个目录存储 pv 的内容: /var/lib/kubelet/plugins/kubernetes.io/csi/rook-ceph.cephfs.csi.ceph.com/23e9856c1857315467f4b40369f3c54dbb553fa69a7f52fb4f98b256cdb3c709/globalmount 2./var/l...

Admin

既然树内 Kubernetes CephFS 持久卷插件已被弃用,我该如何使用 Rook 来获得相同的挂载行为?
rook

既然树内 Kubernetes CephFS 持久卷插件已被弃用,我该如何使用 Rook 来获得相同的挂载行为?

从 Kubernetes v1.28 开始,CephFS 树内持久卷插件已弃用。官方建议现在改用第三方CSI 驱动程序。但是,我不确定如何使用例如 Rook 作为原始 Kubernetes 树内插件的替代品。 该插件能够使用 mon 地址、用户和密钥挂载指定的 ceph 文件系统。挂载也是到本地路径,不需要指定存储配额。 有人可以给出一个简单的例子,说明如何使用 Rook 和 Ceph CSI 驱动程序实现与原始 Kubernetes 树内 CephFS 插件相同或相似的功能吗? ...

Admin

Kubernetes Rook-Ceph:针对不同用例使用不同的池?
rook

Kubernetes Rook-Ceph:针对不同用例使用不同的池?

我正在 Kubernetes 上再次尝试使用 rook-ceph 进行存储。我有 3 个节点,每个节点都有 安装在 的本地 SSD 分区/dev/sda2,以及 位于 的 NAS 卷/dev/sdb。 在我的 rook-config 中,我使用所有设备,它会自动查找并使用它们作为 OSD。到目前为止一切顺利。 我想做的是将它们视为 Kubernetes 中的两个独立存储类 - ssd-pool 速度快但体积小,而 NAS-pool 速度慢但体积大。这样,我可以将 IO 密集型 pod(如数据库)附加到 ssd-storageclass 上,而将大小密集型...

Admin