如何在 ceph-ansible 中配置自定义 ceph OSD 选项?

如何在 ceph-ansible 中配置自定义 ceph OSD 选项?

目前我正在几台基于 ARM 的机器上部署 ceph 集群,分别是ODROID 的 HC2配备 4 TB WD Red Drives。我还找到了一篇文章WD 实验室,在大规模(504 个 OSD)下执行相同任务,建议使用以下方法调整 OSD 设置

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

现在我想知道(不仅仅是针对这些选项),如何将它们放入 ansible group_vars 或 host vars 中,以适应 HC2 上相对较低的资源。

目前我认为,使用当前的 ceph-ansible 剧本是不可能的。

如果有人能给我一些提示,我将不胜感激。ceph-ansible 似乎并没有真正使用模板文件进行配置(仅作为占位符),那么如何扩展或调整它以实现这些设置呢?

答案1

这可以通过参数ceph_conf_overrides(http://docs.ceph.com/ceph-ansible/master/#ceph-conf-配置)。

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

相关内容