问题 1
在高可用性 RKE2 Kubernetes 集群中,我配置了一个负载均衡器 (1LB) 和三个主节点。最初,所有组件都按预期运行。但是,在重新启动其中一个节点后,它无法与现有 Kubernetes 集群重新建立连接。执行 systemctl restart rke2-server 后,该节点作为只有一个节点的新服务器启动。
在具有三个节点的高可用性 (HA) RKE2 集群配置中,两个节点发生故障会导致 etcd 服务器不可用。经检查,API 服务器和 ETCD 服务器均报告为不可用。因此,我无法管理 Kubernetes 集群。这种情况导致集群上运行的应用程序的数据丢失。尽管我进行了恢复工作,但我仍无法重新获得对运行 Kubernetes 版本 1.27.12 的 RKE2 服务器的访问权限。
问题 2
最近,我将 Linux 服务器的主机名从其默认值 (VMI292921) 修改为“rke2-master01”。随后,我将其配置为 Kubernetes (K8s) 集群的一部分。然而,在重启操作期间,主机名会恢复为默认名称,导致 K8s 节点加入现有集群时出现问题。
在经历了两个节点故障后,我继续使用相同的配置文件插入一个新节点。但是,尽管采取了这一措施,我仍然无法访问 Kubernetes 集群。错误消息仍然存在,表明 API 服务器尚不可用,并且 kube-proxy 配置检索处于待处理状态。我的目标仍然是在节点遇到问题后重新获得对集群的访问权限
config.yaml 文件
server: https://load-balancer:9345
token: random token key with k10
tls-san:
- load-balancer-ip