Kuberentes 复制 pod 表现出偏差性能

Kuberentes 复制 pod 表现出偏差性能

我在 GKE 上部署了 kubernetes。我将 CPU 请求和限制设置为相同的 ~700m。当我观察使用单个消息队列 (RabbitMQ) 的 pod 的性能时,可以确认消息之间几乎没有偏差,每个 pod 的表现始终不同。

图 1

该图显示了每个 pod 处理消息所需的时间(不包括网络延迟),即,这是从 pod 消费者收到消息开始处理消息所需的总时间。

可以确认我们分配了足够的计算资源。但我们仍然看到处理消息所需的时间存在一致差异。在 Kubernetes 上出现这种观察结果的原因是什么?谢谢。

PS:这里的部署展示运行一段python代码。

答案1

这看起来需要对您的 GKE 集群进行更深入的调查。我建议您提出公共问题追踪填写您的项目编号(仅数字)。切勿填写您的项目 ID。创建后,请向我提供问题的链接。

相关内容