Clock_getres 是获取 Ubuntu 16.04 Clock_gettime() 分辨率的正确函数吗?
如果是,我如何使用结果进行计算?
64 位整数具有 15 位 10 位精度。对于IEEE 754-2008 标准decimal64,52 位双精度有效数提供53 位分辨率。我希望有一个公式。
@Julie Pelletier 一天前告诉我她的出色测试结果,即 Linux Clock_gettime 的最佳时间粒度是 5 毫秒
答案1
我用以下方法对clock_gettime分辨率进行了一项测量:
struct timespec now;
struct timespec resolution;
clock_gettime(CLOCK_MONOTONIC, &now);
clock_getres(CLOCK_MONOTONIC, &resolution);
printf("secs %d nanoseconds %d\n",resolution.tv_sec, resolution.tv_nsec);
结果是:
lacrosse@lacrosse-ThinkStation-S10:~/Debug$ ./a.out 秒 0 纳秒 1
这个结果与我阅读罗格斯大学计算机科学系的在线文档后的预期不同,该文档指出它会高得多(即1秒)。