对于在网络附加存储 (NAS) 环境中的 (Linux) 服务器上运行的程序,如何测量在服务器和网络之间传输数据所花费的时间?
命令time
> /usr/bin/time md5sum file_348m
738709b181b52ddfcef3413997f91462 file_348m
0.65user 0.07system 0:00.73elapsed 99%CPU (0avgtext+0avgdata 1524maxresident)k
0inputs+0outputs (0major+80minor)pagefaults 0swaps
我相信测量服务器(本地)磁盘和内存(页面错误)之间传输数据所花费的时间,但是如何测量从网络传输数据的时间?