什么可以解释 Solr 和 AWS Fargate 报告的物理内存使用情况的差异?

什么可以解释 Solr 和 AWS Fargate 报告的物理内存使用情况的差异?

我有一个 Solr 实例作为 AWS Fargate 实例运行。Solr 实例已配置 Xmx 设置为 1G。剩余内存应该可用于地图目录

查看 AWS,Fargate 报告的内存使用率约为 35%。Solr 报告物理内存使用率为4GB,即100%。

我想看看 Solr 报告的内存是否有问题,所以我将 Fargate 实例的总内存增加到 24GB。在这种情况下,Solr 报告的物理内存使用量约为 7.5GB。

如何解释 Fargate 报告的内存使用情况(4GB:100% vs 35% 和 24GB:30% vs 4%)?无论 Fargate 任务可用的内存是多少,Fargate 报告的内存使用情况似乎仅反映 Solr 本身使用的内存(为该进程保留的最大 1GB),而不是使用的物理内存。

4GB RAM 可用于 Fargate 任务

在此处输入图片描述

在此处输入图片描述

Fargate 任务可用 24GB RAM 在此处输入图片描述

在 Fargate 容器中:

cat /proc/meminfo 
MemTotal:        7910348 kB
MemFree:         1370148 kB
MemAvailable:    6047192 kB
Buffers:           56336 kB
Cached:          4771752 kB
SwapCached:            0 kB
Active:           326432 kB
Inactive:        5970884 kB
Active(anon):        424 kB
Inactive(anon):  1469224 kB
Active(file):     326008 kB
Inactive(file):  4501660 kB
Unevictable:           0 kB
Mlocked:               0 kB
SwapTotal:             0 kB
SwapFree:              0 kB
Dirty:               552 kB
Writeback:             0 kB
AnonPages:       1469304 kB
Mapped:          1222612 kB
Shmem:               412 kB
KReclaimable:     139492 kB
Slab:             180956 kB
SReclaimable:     139492 kB
SUnreclaim:        41464 kB
KernelStack:        5312 kB
PageTables:        14836 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:     3955172 kB
Committed_AS:    3050700 kB
VmallocTotal:   34359738367 kB
VmallocUsed:       12548 kB
VmallocChunk:          0 kB
Percpu:             1216 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
ShmemHugePages:        0 kB
ShmemPmdMapped:        0 kB
FileHugePages:         0 kB
FilePmdMapped:         0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
Hugetlb:               0 kB
DirectMap4k:      100264 kB
DirectMap2M:     5971968 kB
DirectMap1G:     2097152 kB

相关内容