HAProxy 拒绝资源使用率低的连接

HAProxy 拒绝资源使用率低的连接

我的 haproxy 服务器在超过一定阈值后拒绝新连接(或超时),这给我带来了问题。代理服务器是 AWSc5.大EC2 配备 2 个 CPU 和 4GB 内存。我们网站上的两种连接类型使用相同的配置,我们有一个用于 websocket 连接的配置,通常介于2K-4K并发连接数和请求率约为10/秒. 另一个用于正常的网络流量,以 nginx 作为后端,大约400-500并发连接数和请求率约为100-150/秒. 两者的典型 CPU 使用率约为3-5%在 haproxy 进程上,2-3%用于 websocket 代理的内存(40-60MB)和1-3%用于 Web 代理的内存(30-40MB)。

根据所附配置,CPU 映射到两个 CPU 上,运行一个进程和两个线程。两种类型的流量通常都是 95%(或更高)的 SSL 流量。我使用watch -n 1'echo“显示信息”| socat unix:/run/haproxy/admin.sock-'看看我是否达到了我的极限,但事实似乎并非如此。

在高流量时段,当我们的 websocket 并发连接数达到约5千网络请求率达到400 个请求/秒。我在这里提到这两台服务器是因为我知道配置可以处理高并发连接和请求率,但我忽略了其他一些资源限制。在正常情况下,一切都运行正常;然而,我们看到的问题是连接超时错误(来自 chrome)类型错误。我从未看到任何 502 错误。我也没有看到服务器上的任何其他进程使用更多 CPU 或内存。我还附加了一些其他可能相关的配置,例如设置我的限制和 sysctl 设置。

你知道我可能错过了什么吗?我正在阅读顶部ps 辅助 |查找haproxy错误,并且看到错误的 CPU/内存使用情况?我是否遗漏了一些 TCP 连接限制?后端服务器 (nginx/websocket) 正在运行,但似乎从未被征税。我们已经使用更多的连接和流量对这些服务器进行了负载测试,并且在限制后端服务器之前很久就受到代理的限制。

多谢。

haproxy配置文件

global
    ulimit-n 300057
    quiet
    maxconn 150000
    maxconnrate 1000
    nbproc 1
    nbthread 2
    cpu-map auto:1/1-2 0-1

    daemon
    stats socket /run/haproxy/admin.sock mode 600 level admin
    stats timeout 2m
    log 127.0.0.1:514 local0
    ca-base /etc/ssl/certs
    crt-base /etc/ssl/private
    ssl-default-bind-options no-sslv3 no-tlsv10
    ssl-default-bind-ciphers kEECDH+aRSA+AES:kRSA+AES:+AES256:RC4-SHA:!kEDH:!LOW:!EXP:!MD5:!aNULL:!eNULL:!RC4

defaults
    maxconn 150000
    mode http
    log global
    option forwardfor
    timeout client 30s
    timeout server 120s
    timeout connect 10s
    timeout queue 60s
    timeout http-request 20s

frontend default_proxy
    option httplog
    bind :80
    bind :443 ssl crt /etc/haproxy/ssl.pem
    ... acl stuff which may route to a different backend
    ... acl for websocket traffic
    use_backend websocket if websocket_acl
    default_backend default_web

backend default_web
    log global
    option httpclose
    option http-server-close
    option checkcache
    balance roundrobin
    option httpchk HEAD /index.php HTTP/1.1\r\nHost:website.com
    server web1 192.168.1.2:80 check inter 6000 weight 1
    server web2 192.168.1.3:80 check inter 6000 weight 1

backend websocket
    #   no option checkcache
    option httpclose
    option http-server-close
    balance roundrobin
    server websocket-1 192.168.1.4:80 check inter 6000 weight 1
    server websocket-2 192.168.1.5:80 check inter 6000 weight 1

输出自haproxy-vv

HA-Proxy version 1.8.23-1ppa1~xenial 2019/11/26
Copyright 2000-2019 Willy Tarreau <[email protected]>

Build options :
  TARGET  = linux2628
  CPU     = generic
  CC      = gcc
  CFLAGS  = -O2 -g -O2 -fPIE -fstack-protector-strong -Wformat -    Werror=format-security -Wdate-time -D_FORTIFY_SOURCE=2 -fno-strict-aliasing -Wdeclaration-after-statement -fwrapv -Wno-unused-label
OPTIONS = USE_GETADDRINFO=1 USE_ZLIB=1 USE_REGPARM=1 USE_OPENSSL=1 USE_LUA=1 USE_SYSTEMD=1 USE_PCRE2=1 USE_PCRE2_JIT=1 USE_NS=1

Default settings :
  maxconn = 2000, bufsize = 16384, maxrewrite = 1024, maxpollevents = 200

Built with OpenSSL version : OpenSSL 1.0.2g  1 Mar 2016
Running on OpenSSL version : OpenSSL 1.0.2g  1 Mar 2016
OpenSSL library supports TLS extensions : yes
OpenSSL library supports SNI : yes
OpenSSL library supports : TLSv1.0 TLSv1.1 TLSv1.2
Built with Lua version : Lua 5.3.1
Built with transparent proxy support using: IP_TRANSPARENT         IPV6_TRANSPARENT IP_FREEBIND
Encrypted password support via crypt(3): yes
Built with multi-threading support.
Built with PCRE2 version : 10.21 2016-01-12
PCRE2 library supports JIT : yes
Built with zlib version : 1.2.8
Running on zlib version : 1.2.8
Compression algorithms supported : identity("identity"), deflate("deflate"), raw-deflate("deflate"), gzip("gzip")
Built with network namespace support.

Available polling systems :
      epoll : pref=300,  test result OK
       poll : pref=200,  test result OK
     select : pref=150,  test result OK
Total: 3 (3 usable), will use epoll.

Available filters :
    [SPOE] spoe
    [COMP] compression
    [TRACE] trace

限制配置文件

* soft nofile 120000
* soft nproc 120000

系统配置参数

net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_syncookies=1
net.ipv4.conf.all.rp_filter = 1
net.ipv4.ip_local_port_range = 1024 65023
net.ipv4.tcp_max_syn_backlog = 50000
net.ipv4.tcp_max_tw_buckets = 400000
net.ipv4.tcp_max_orphans = 60000
net.ipv4.tcp_synack_retries = 3
net.core.somaxconn = 50000
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1
net.core.netdev_max_backlog = 50000
fs.epoll.max_user_instances = 10000

典型负载为 330 个并发连接和 80 个请求/秒ps 辅助 |查找haproxy输出:

root      8122  4.5  1.2 159052 46200 ?        Ssl  Jan28  40:56 /usr/sbin/haproxy -Ws -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -sf 29790
root     12893  0.0  0.3  49720 12832 ?        Ss   Jan21   0:00 /usr/sbin/haproxy -Ws -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -sf 29790

操作系统是Ubuntu 16.04。

答案1

原来答案一直就在我眼前。我设定了最大连接率达到 1,000。然而,显示信息显示的连接速率较低,介于 10-15 之间,因此我认为我没有达到该限制。我最多只能维持每秒 500 个请求(由我的后端服务器确认),每个请求都需要一个与客户端的连接,以及一个与后端的连接。因此,我每秒使用了 1,000 个连接。

我取消了这个限制并且能够维持更高的连接率。

相关内容