RabbitMQ 集群中 iowait 突然升高的问题

RabbitMQ 集群中 iowait 突然升高的问题

我们在 AWS 上运行一个包含 6 个 c5.2xlarge 节点的 RabbitMQ 集群。版本为 Erlang 19.1 上的 3.6.14。它们在 docker 容器中运行,并将本地卷挂载到 /var/lib/rabbitmq/mnesia。

docker run命令如下:

docker run -d \
    --name rabbitmq \
    --net=host \
    --dns-search=eu-west-1.compute.internal \
    --ulimit nofile=65536:65536 \
    --restart on-failure:5 \
    -p 1883:1883 \
    -p 4369:4369 \
    -p 5672:5672 \
    -p 15672:15672 \
    -p 25672:25672 \
    -e AUTOCLUSTER_TYPE=aws \
    -e AWS_AUTOSCALING=true \
    -e AUTOCLUSTER_CLEANUP=true \
    -e CLEANUP_WARN_ONLY=false \
    -e AWS_DEFAULT_REGION=eu-west-1 \
    -v /mnt/storage:/var/lib/rabbitmq/mnesia \
    dockerregistry/rabbitmq-autocluster:3.6.14

RabbitMQ 配置的一部分:

[
  {
    rabbit,
    [
      {loopback_users, []},
      {collect_statistics_interval, 10000},
      {cluster_partition_handling, autoheal},
      {delegate_count, 64},
      {fhc_read_buffering, false},
      {fhc_write_buffering, false},
      {heartbeat, 60},
      {background_gc_enabled, true},
      {background_gc_target_interval, 60000},
      {queue_index_embed_msgs_below, 0},
      {queue_index_max_journal_entries, 8192},
      {log_levels, [{connection, error},
                    {channel, warning}]},
      {vm_memory_high_watermark, 0.8},
      {auth_backends,
        [
          rabbit_auth_backend_ldap,
          rabbit_auth_backend_internal
        ]
      }
    ]
  },

  {
    rabbitmq_mqtt,
    [
      {default_user,     <<"**********">>},
      {default_pass,     <<"************">>},
      {allow_anonymous,  false},
      {vhost,            <<"/">>},
      {exchange,         <<"amq.topic">>},
      {subscription_ttl, 1800000},
      {prefetch,         10},
      {ssl_listeners,    []},
      {tcp_listeners,    [1883]},
      {tcp_listen_options,
        [
          binary,
            {packet, raw},
            {reuseaddr, true},
            {backlog, 128},
            {nodelay,   true}
        ]
      }
    ]
  },

上周五晚上,排队消息达到峰值约 25k 条,突然间所有节点都开始出现大量 iowait 问题。通常 iowait 总是 < 5,现在它开始飙升到 > 70。我们检查了机器,但仍然无法找到合理的解释。在我们将整个自动缩放组轮换到新实例后,问题就消失了。即使在周六,当我们达到相同的消息速率时也是如此。在 iotop 中,我们经常看到 ext4 日志记录过程位于顶部。但是,由于 c5 机器上有 nvme ssd,我们认为 iowait 不应该成为问题。我们还检查了网络,没有发现任何值得担心的问题。

如果您能提供任何意见或提示,我们将不胜感激。我们可以检查什么?

相关内容