目前我正在几台基于 ARM 的机器上部署 ceph 集群,分别是ODROID 的 HC2配备 4 TB WD Red Drives。我还找到了一篇文章WD 实验室,在大规模(504 个 OSD)下执行相同任务,建议使用以下方法调整 OSD 设置
osd map cache size = 40
osd map max advance = 32
osd map message max = 32
现在我想知道(不仅仅是针对这些选项),如何将它们放入 ansible group_vars 或 host vars 中,以适应 HC2 上相对较低的资源。
目前我认为,使用当前的 ceph-ansible 剧本是不可能的。
如果有人能给我一些提示,我将不胜感激。ceph-ansible 似乎并没有真正使用模板文件进行配置(仅作为占位符),那么如何扩展或调整它以实现这些设置呢?
答案1
这可以通过参数ceph_conf_overrides
(http://docs.ceph.com/ceph-ansible/master/#ceph-conf-配置)。
ceph_conf_overrides:
osd:
osd map cache size: 40
osd map max advance: 32
osd map message max: 32