我正在进行一些计时和效率测试,并遇到了一些意想不到的行为。我发现我的程序实际运行得更快,如果我运行其他后台进程,将所有系统CPU内核固定在100%。这是一个简化的示例程序:
#define _XOPEN_SOURCE 600
#include <stdlib.h>
#include <stdio.h>
#include <time.h>
void vadd(const float *u, const float *v, float *y, int n) {
int i;
for (i = 0; i < n; i++) {
y[i] = u[i] + v[i];
}
}
int main(int argc, char *argv[]) {
int i, its = 100000, n = 16384;
float *a, *b, *c;
clock_t start, end;
double cpu_time;
/* Make sure alignment is the same on each run. */
posix_memalign((void**)&a, 16, sizeof(float) * n);
posix_memalign((void**)&b, 16, sizeof(float) * n);
posix_memalign((void**)&c, 16, sizeof(float) * n);
/* Some arbitrary initialization */
for (i = 0; i < n; i++) {
a[i] = i;
b[i] = 4;
c[i] = 0;
}
/* Now the real work */
start = clock();
for (i = 0; i < its; i++) {
vadd(a, b, c, n);
}
end = clock();
cpu_time = ((double) (end - start)) / CLOCKS_PER_SEC;
printf("Done, cpu time: %f\n", cpu_time);
return 0;
}
我正在运行一个(相当旧的)奔腾4 @ 2.8GHz,启用了超线程,在/ proc / cpuinfo中显示为两个处理器。
系统输出相对空闲:
$ ./test
Done, cpu time: 11.450000
现在加载所有核心:
$ md5sum /dev/zero& ./test; killall md5sum
Done, cpu time: 8.930000
这个结果是一致的。我猜我通过减少程序移动到另一个CPU的时间以某种方式提高了缓存效率,但这只是一个黑暗的镜头。任何人都可以证实或驳斥这个吗?
第二个问题:我很惊讶地发现cpu_time在运行之间可能会有很大变化。上面使用的方法是taken right out of the GNU C manual,我认为使用clock()
可以保护我免受因使用CPU的其他进程引起的时序波动。显然,基于上述结果,情况并非如此。所以我的第二个问题是,clock()
方法真的是衡量绩效的正确方法吗?
更新:我已经查看了有关CPU频率缩放调控器的评论中的建议,我不认为这是正在发生的事情。我试图通过watch grep \"cpu MHz\" /proc/cpuinfo
实时监控CPU速度(如建议here),并且在程序运行时我没有看到频率变化。我应该在帖子中包含我运行的相当旧的内核:2.6.25。
更新2:我开始使用下面的脚本来处理启动的md5sum进程数。即使我开始比逻辑CPU更多的进程,它也比独立运行更快。
更新3:如果我关闭BIOS中的超线程,这种奇怪的行为就会消失,运行总是花费大约11秒的CPU时间。看起来超线程与它有关。
更新4:我刚刚在双四核Intel Xeon @ 2.5GHz上运行了这个,并没有看到任何上述奇怪的行为。这个“问题”可能与我的特定硬件设置相当具体。
#!/bin/bash
declare -i num=$1
for (( num; num; num-- )); do
md5sum /dev/zero &
done
time ./test
killall md5sum
-
$ ./run_test.sh 5
Done, cpu time: 9.070000
real 0m27.738s
user 0m9.021s
sys 0m0.052s
$ ./run_test.sh 2
Done, cpu time: 9.240000
real 0m15.297s
user 0m9.169s
sys 0m0.080s
$ ./run_test.sh 0
Done, cpu time: 11.040000
real 0m11.041s
user 0m11.041s
sys 0m0.004s
答案 0 :(得分:1)
所以我的第二个问题是,clock()方法真的是衡量性能的正确方法吗?
您可能更喜欢使用clock_gettime(2)和朋友。另请阅读time(7)
详细信息可能是硬件(即CPU +主板)和内核特定。
答案 1 :(得分:0)
如果在核心上运行单个进程,clock()
应该返回该进程花费的时间。这包括核心实际执行的时间以及核心等待从缓存/内存中获取指令和数据,等待另一条指令所需的一条指令的结果等的时间等。基本上,对于这种情况,{ {1}}返回“执行时间加上许多微小差距”。
对于超线程,2个“逻辑CPU”共享同一个核心。核心在一个进程中使用所有那些微小的差距来执行另一个进程,并且核心在更短的时间内完成更多的总工作(由于浪费的时间浪费更少)。在这种情况下,clock()
函数应该测量什么?
例如,如果2个进程都在同一个核上运行10秒,那么clock()
应该说两个进程各使用10秒,或clock()
表示两个进程都使用了10秒的一半每个?
我的理论是,在你的系统上clock()
返回“消耗核心时间/消耗核心时间的核心时间”。一个进程运行10秒clock()
返回“10秒”,并且其中2个进程共享核心,它们可能运行16秒而不是20秒(由于核心在“间隙”上浪费的时间较少)并且clock()
返回“16/2 =每个进程8秒”;当负载更多时,看起来这个过程运行速度提高了2秒(即使需要16秒而不是10秒)。