如何测量 Linux 上运行的应用程序的峰值内存?
我批量运行这个应用程序,因此我无法使用 RSS,因为它会报告当前内存。我需要最后报告应用程序所使用的峰值内存。
VmPeak 也不是一个解决方案,因为它报告分配的内存,并且也不从真实的 RAM 计算,而是从硬盘计算。
答案1
以下是跟踪进程峰值内存使用量的两种方法。
糖浆
我没有使用过这个工具,但它听起来像你正在寻找的东西。它被称为糖浆。
描述
Syrupy 是一个 Python 脚本,它定期拍摄一个或多个正在运行的进程的内存和 CPU 负载快照,以便动态构建其系统资源使用情况的配置文件。
例子
$ syrupy.py myprog
PID DATE TIME ELAPSED CPU MEM RSS VSIZE
14634 2008-10-10 20:45:25 00:00 0.0 0.0 2996 6680
14634 2008-10-10 20:45:26 00:01 105 0.2 7804 12592
14634 2008-10-10 20:45:27 00:02 103 0.2 8996 13776
14634 2008-10-10 20:45:28 00:03 103 0.2 10468 15348
14634 2008-10-10 20:45:29 00:04 103 0.3 11412 16396
14634 2008-10-10 20:45:30 00:05 104 0.3 12492 17444
/usr/bin/time -v
是的,具有讽刺意味的是,GNU time 命令可以为您提供进程的峰值内存使用情况。它报告峰值内存,如下所示:Maximum resident set size (kbytes)
。
例子
$ /usr/bin/time -v ~/projects/prime_numbers/eratosthenes_prime_sieve.pl 10 1000000
...
Command being timed: "/home/saml/projects/prime_numbers/eratosthenes_prime_sieve.pl 10 1000000"
User time (seconds): 1.12
System time (seconds): 0.05
Percent of CPU this job got: 54%
Elapsed (wall clock) time (h:mm:ss or m:ss): 0:02.19
Average shared text size (kbytes): 0
Average unshared data size (kbytes): 0
Average stack size (kbytes): 0
Average total size (kbytes): 0
Maximum resident set size (kbytes): 79304
Average resident set size (kbytes): 0
Major (requiring I/O) page faults: 0
Minor (reclaiming a frame) page faults: 20014
Voluntary context switches: 83
Involuntary context switches: 274
Swaps: 0
File system inputs: 0
File system outputs: 0
Socket messages sent: 0
Socket messages received: 0
Signals delivered: 0
Page size (bytes): 4096
Exit status: 0
参考
答案2
尽管这个话题已经很老了,我还是想分享另一个源自 cgroups Linux 内核功能的项目。
https://github.com/gsauthof/cgmemtime:
cgmemtime 测量进程及其子进程的高水位 RSS+CACHE 内存使用情况。
为了能够做到这一点,它将进程放入自己的 cgroup 中。
例如,进程 A 分配 10 MiB,并分叉一个分配 20 MiB 的子进程 B,并分叉一个分配 30 MiB 的子进程 C。所有三个进程共享一个时间窗口,在该时间窗口中,它们的分配会导致相应的 RSS(驻留集大小)内存使用情况。
现在的问题是:运行A实际使用了多少内存?
答案:60 MiB
cgmemtime 是回答此类问题的工具。
用法示例是:
$ sudo ./cgmemtime --setup -g <myusergroup> --perm 775
$ ./cgmemtime ./testa x 10 20 30
Parent PID is 27189
Allocating 10 MiBs
New Child: 27193
Allocating 20 MiBs
New Child: 27194
Allocating 30 MiBs
Child user: 0.000 s
Child sys : 0.005 s
Child wall: 6.006 s
Child high-water RSS : 11648 KiB
Recursive and acc. high-water RSS+CACHE : 61840 KiB
$ ./cgmemtime python -c 'print range(100000)[48517]'
48517
Child user: 0.014 s
Child sys : 0.014 s
Child wall: 0.029 s
Child high-water RSS : 9948 KiB
Recursive and acc. high-water RSS+CACHE : 5724 KiB