当我用其他任意工作重载系统时,为什么我的程序运行得更快?

时间:2013-07-29 13:58:05

标签: c linux performance optimization

我正在进行一些计时和效率测试,并遇到了一些意想不到的行为。我发现我的程序实际运行得更快,如果我运行其他后台进程,将所有系统CPU内核固定在100%。这是一个简化的示例程序:

#define _XOPEN_SOURCE 600
#include <stdlib.h>
#include <stdio.h>
#include <time.h>

void vadd(const float *u, const float *v, float *y, int n) {
    int  i;

    for (i = 0; i < n; i++) {
        y[i] = u[i] + v[i];
    }
}

int main(int argc, char *argv[]) {
    int i, its = 100000, n = 16384;
    float *a, *b, *c;
    clock_t start, end;
    double cpu_time;

    /* Make sure alignment is the same on each run. */
    posix_memalign((void**)&a, 16, sizeof(float) * n);
    posix_memalign((void**)&b, 16, sizeof(float) * n);
    posix_memalign((void**)&c, 16, sizeof(float) * n);

    /* Some arbitrary initialization */
    for (i = 0; i < n; i++) {
        a[i] = i;
        b[i] = 4;
        c[i] = 0;
    }

    /* Now the real work */
    start = clock();
    for (i = 0; i < its; i++) {
        vadd(a, b, c, n);
    }
    end = clock();

    cpu_time = ((double) (end - start)) / CLOCKS_PER_SEC;
    printf("Done, cpu time: %f\n", cpu_time);

    return 0;
}

我正在运行一个(相当旧的)奔腾4 @ 2.8GHz,启用了超线程,在/ proc / cpuinfo中显示为两个处理器。

系统输出相对空闲:

$ ./test
Done, cpu time: 11.450000

现在加载所有核心:

$ md5sum /dev/zero& ./test; killall md5sum
Done, cpu time: 8.930000

这个结果是一致的。我猜我通过减少程序移动到另一个CPU的时间以某种方式提高了缓存效率,但这只是一个黑暗的镜头。任何人都可以证实或驳斥这个吗?

第二个问题:我很惊讶地发现cpu_time在运行之间可能会有很大变化。上面使用的方法是taken right out of the GNU C manual,我认为使用clock()可以保护我免受因使用CPU的其他进程引起的时序波动。显然,基于上述结果,情况并非如此。所以我的第二个问题是,clock()方法真的是衡量绩效的正确方法吗?

更新:我已经查看了有关CPU频率缩放调控器的评论中的建议,我不认为这是正在发生的事情。我试图通过watch grep \"cpu MHz\" /proc/cpuinfo实时监控CPU速度(如建议here),并且在程序运行时我没有看到频率变化。我应该在帖子中包含我运行的相当旧的内核:2.6.25。

更新2:我开始使用下面的脚本来处理启动的md5sum进程数。即使我开始比逻辑CPU更多的进程,它也比独立运行更快。

更新3:如果我关闭BIOS中的超线程,这种奇怪的行为就会消失,运行总是花费大约11秒的CPU时间。看起来超线程与它有关。

更新4:我刚刚在双四核Intel Xeon @ 2.5GHz上运行了这个,并没有看到任何上述奇怪的行为。这个“问题”可能与我的特定硬件设置相当具体。

#!/bin/bash
declare -i num=$1

for (( num; num; num-- )); do
  md5sum /dev/zero &
done

time ./test
killall md5sum

-

$ ./run_test.sh 5
Done, cpu time: 9.070000

real    0m27.738s
user    0m9.021s
sys 0m0.052s

$ ./run_test.sh 2
Done, cpu time: 9.240000

real    0m15.297s
user    0m9.169s
sys 0m0.080s

$ ./run_test.sh 0
Done, cpu time: 11.040000

real    0m11.041s
user    0m11.041s
sys 0m0.004s

2 个答案:

答案 0 :(得分:1)

  

所以我的第二个问题是,clock()方法真的是衡量性能的正确方法吗?

您可能更喜欢使用clock_gettime(2)和朋友。另请阅读time(7)

详细信息可能是硬件(即CPU +主板)和内核特定。

答案 1 :(得分:0)

如果在核心上运行单个进程,clock()应该返回该进程花费的时间。这包括核心实际执行的时间以及核心等待从缓存/内存中获取指令和数据,等待另一条指令所需的一条指令的结果等的时间等。基本上,对于这种情况,{ {1}}返回“执行时间加上许多微小差距”。

对于超线程,2个“逻辑CPU”共享同一个核心。核心在一个进程中使用所有那些微小的差距来执行另一个进程,并且核心在更短的时间内完成更多的总工作(由于浪费的时间浪费更少)。在这种情况下,clock()函数应该测量什么?

例如,如果2个进程都在同一个核上运行10秒,那么clock()应该说两个进程各使用10秒,或clock()表示两个进程都使用了10秒的一半每个?

我的理论是,在你的系统上clock()返回“消耗核心时间/消耗核心时间的核心时间”。一个进程运行10秒clock()返回“10秒”,并且其中2个进程共享核心,它们可能运行16秒而不是20秒(由于核心在“间隙”上浪费的时间较少)并且clock()返回“16/2 =每个进程8秒”;当负载更多时,看起来这个过程运行速度提高了2秒(即使需要16秒而不是10秒)。