情况
运行一个非常小的 ceph 集群:
- 有三个节点(每个节点包含 mon、osd 和 mds)
- 一个管理虚拟机(还包含一个 mgr 服务)
- 一个池子复制三次
为了玩一玩,我删除了一个 OSD,然后使用以下命令将其重新添加为一个新的 OSD
ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>
现在,成功添加后,集群降级并恢复,正如预期的那样。但降级的对象比我预期的要多(信息取自 mgr web 界面):
Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)
问题
为何退化的物体数量可能比现存的物体数量还多?