我们在 AWS 上运行一个包含 6 个 c5.2xlarge 节点的 RabbitMQ 集群。版本为 Erlang 19.1 上的 3.6.14。它们在 docker 容器中运行,并将本地卷挂载到 /var/lib/rabbitmq/mnesia。
docker run命令如下:
docker run -d \
--name rabbitmq \
--net=host \
--dns-search=eu-west-1.compute.internal \
--ulimit nofile=65536:65536 \
--restart on-failure:5 \
-p 1883:1883 \
-p 4369:4369 \
-p 5672:5672 \
-p 15672:15672 \
-p 25672:25672 \
-e AUTOCLUSTER_TYPE=aws \
-e AWS_AUTOSCALING=true \
-e AUTOCLUSTER_CLEANUP=true \
-e CLEANUP_WARN_ONLY=false \
-e AWS_DEFAULT_REGION=eu-west-1 \
-v /mnt/storage:/var/lib/rabbitmq/mnesia \
dockerregistry/rabbitmq-autocluster:3.6.14
RabbitMQ 配置的一部分:
[
{
rabbit,
[
{loopback_users, []},
{collect_statistics_interval, 10000},
{cluster_partition_handling, autoheal},
{delegate_count, 64},
{fhc_read_buffering, false},
{fhc_write_buffering, false},
{heartbeat, 60},
{background_gc_enabled, true},
{background_gc_target_interval, 60000},
{queue_index_embed_msgs_below, 0},
{queue_index_max_journal_entries, 8192},
{log_levels, [{connection, error},
{channel, warning}]},
{vm_memory_high_watermark, 0.8},
{auth_backends,
[
rabbit_auth_backend_ldap,
rabbit_auth_backend_internal
]
}
]
},
{
rabbitmq_mqtt,
[
{default_user, <<"**********">>},
{default_pass, <<"************">>},
{allow_anonymous, false},
{vhost, <<"/">>},
{exchange, <<"amq.topic">>},
{subscription_ttl, 1800000},
{prefetch, 10},
{ssl_listeners, []},
{tcp_listeners, [1883]},
{tcp_listen_options,
[
binary,
{packet, raw},
{reuseaddr, true},
{backlog, 128},
{nodelay, true}
]
}
]
},
上周五晚上,排队消息达到峰值约 25k 条,突然间所有节点都开始出现大量 iowait 问题。通常 iowait 总是 < 5,现在它开始飙升到 > 70。我们检查了机器,但仍然无法找到合理的解释。在我们将整个自动缩放组轮换到新实例后,问题就消失了。即使在周六,当我们达到相同的消息速率时也是如此。在 iotop 中,我们经常看到 ext4 日志记录过程位于顶部。但是,由于 c5 机器上有 nvme ssd,我们认为 iowait 不应该成为问题。我们还检查了网络,没有发现任何值得担心的问题。
如果您能提供任何意见或提示,我们将不胜感激。我们可以检查什么?