我已经在单个网卡上设置了新的集群,cephadm
但我添加了额外的网卡用于复制cluster_network
。这就是我配置 cephadm 所做的,但它不起作用。
$ ceph config set global cluster_network 192.168.1.0/24
查看配置
$ ceph config get mon cluster_network
192.168.1.0/24
$ ceph config get mon public_network
10.73.3.0/24
证实
$ ceph osd metadata 1 | grep addr
"back_addr": "[v2:10.73.3.191:6812/1317996473,v1:10.73.3.191:6813/1317996473]",
"front_addr": "[v2:10.73.3.191:6810/1317996473,v1:10.73.3.191:6811/1317996473]",
"hb_back_addr": "[v2:10.73.3.191:6816/1317996473,v1:10.73.3.191:6817/1317996473]",
"hb_front_addr": "[v2:10.73.3.191:6814/1317996473,v1:10.73.3.191:6815/1317996473]",
使用守护进程重新启动
$ ceph orch restart osd.1
还是没有影响
$ ceph osd metadata 1 | grep back_addr
"back_addr": "[v2:10.73.3.191:6812/1317996473,v1:10.73.3.191:6813/1317996473]",
"hb_back_addr": "[v2:10.73.3.191:6816/1317996473,v1:10.73.3.191:6817/1317996473]",
答案1
尝试重新配置守护进程
ceph orch daemon reconfig mon
ceph orch daemon reconfig osd
如果问题仍然存在,您应该运行此命令
cephadm bootstrap --mon-ip <public_ip> --cluster-network <inetranl_ip_range>