Linux 服务器不允许超过 2048 个并发连接

Linux 服务器不允许超过 2048 个并发连接

我尝试从我的 MACOS 对 MQTT 进行负载测试,并且能够成功实现超过 12k 个连接,直到我的带宽耗尽。

我尝试在 GCP 机器上进行相同的测试,当打开的端口达到 2048 时,会出现连接超时异常,与 MQTT 代理的连接数达到 2048。

连接时,我的 ConnectionTimeout 为 100 秒(等待 conack)且 KeepAlive = 300 秒(一旦建立连接)

不管使用什么负载测试软件,例如 mzbench、jmeter 还是 emqtt-bench,都会出现此问题。所以,我认为此问题与 Linux 服务器有关。

我并不是想实现 100 万个开放连接,而是想实现至少 3 万个开放连接。

已经尝试更改 ulimit,这些是我的 ulimit 配置

core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 63887
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 102400
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 200000
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

proc 上的 cat 也给出最大文件打开数为 102400

这些也是我在 sysctl 中设置的值

fs.file-max = 200000
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_mem = 50576   64768   98152
net.core.netdev_max_backlog = 2500

编辑:添加机器详细信息和测试模式

机器类型:n2-highcpu-16(16 个 vCPU,16 GB 内存)

lscpu 的结果

Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                16
On-line CPU(s) list:   0-15
Thread(s) per core:    2
Core(s) per socket:    8
Socket(s):             1
NUMA node(s):          1
Vendor ID:             GenuineIntel
CPU family:            6
Model:                 85
Model name:            Intel(R) Xeon(R) CPU
Stepping:              7
CPU MHz:               2800.200
BogoMIPS:              5600.40
Hypervisor vendor:     KVM
Virtualization type:   full
L1d cache:             32K
L1i cache:             32K
L2 cache:              1024K
L3 cache:              33792K
NUMA node0 CPU(s):     0-15
Flags:                 fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss ht syscall nx pdpe1gb rdtscp lm constant_tsc rep_good nopl xtopology nonstop_tsc cpuid tsc_known_freq pni pclmulqdq ssse3 fma cx16 pcid sse4_1 sse4_2 x2apic movbe popcnt aes xsave avx f16c rdrand hypervisor lahf_lm abm 3dnowprefetch invpcid_single ssbd ibrs ibpb stibp ibrs_enhanced fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm mpx avx512f avx512dq rdseed adx smap clflushopt clwb avx512cd avx512bw avx512vl xsaveopt xsavec xgetbv1 xsaves arat avx512_vnni md_clear arch_capabilities

测试模式:每秒打开 200 个连接并以恒定速率等待 conack。

答案1

感谢上述评论,我能够解决这个问题。

我从测试虚拟机访问公共 LoadBalancer IP。但是,GCP 限制虚拟机与公共 IP 之间的连接数最多为 2048 个。一旦我将其更改为私有 IP,我就能实现接近 65000 个连接。

相关内容