我想测量执行某些代码所需的系统时间。要做到这一点,我知道我会在两次调用getrusage()之间将所述代码夹在中间,但是我得到了一些意想不到的结果......
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
int main() {
struct rusage usage;
struct timeval start, end;
int i, j, k = 0;
getrusage(RUSAGE_SELF, &usage);
start = usage.ru_stime;
for (i = 0; i < 10000; i++) {
/* Double loop for more interesting results. */
for (j = 0; j < 10000; j++) {
k += 20;
}
}
getrusage(RUSAGE_SELF, &usage);
end = usage.ru_stime;
printf("Started at: %ld.%lds\n", start.tv_sec, start.tv_usec);
printf("Ended at: %ld.%lds\n", end.tv_sec, end.tv_usec);
return 0;
}
我希望这会产生两个不同的数字,但是唉!看到我的电脑想了一两秒后,结果就是这样:
Started at: 0.1999s
Ended at: 0.1999s
我没有使用getrusage()吗?为什么这两个数字不应该不同?如果我从根本上说错了,有没有其他方法可以使用getrusage()来测量某些源代码的系统时间?谢谢你的阅读。
答案 0 :(得分:12)
你误解了“用户”和“系统”时间之间的区别。在测量时,您的示例代码主要在用户模式下执行(即运行应用程序代码),但“系统”时间是在内核模式下执行所花费的时间的度量(即处理系统调用)。
ru_stime
是衡量系统时间的正确字段。您的测试应用程序恰好不会在您检查的两点之间产生任何这样的时间。
答案 1 :(得分:3)
您应该使用usage.ru_utime
,而不是使用用户CPU时间。
答案 2 :(得分:0)
使用gprof。这将给你每个功能所花费的时间。 安装gprof并使用这些标志进行编译-pg -fprofile-arcs -ftest-coverage。