clock()返回0

时间:2015-03-04 00:27:22

标签: c++ clock

当我运行下面的代码时,我得到一个值0,有几次我得到了一个intAddition的值。我尝试了很多在网上找到的建议,但尚未占上风。我的同学告诉我他是如何做到的,这跟我的非常相似。他从他的节目中获得了1到3的小值。

感谢您的帮助!

#include <iostream>
#include <time.h>
#include <stdio.h>

clock_t start, end;

void intAddition(int a, int b){
    start = clock();
    a + b;
    end = clock();  
    printf("CPU cycles to execute integer addition operation: %d\n", end-start);
}

void intMult(int a, int b){
    start = clock();
    a * b;
    end = clock();
    printf("CPU cycles to execute integer multiplication operation: %d\n", end-start);
}

void floatAddition(float a, float b){
    start = clock();
    a + b;
    end = clock();
    printf("CPU cycles to execute float addition operation: %d\n", end-start);
}

void floatMult(float a, float b){
    start = clock();
    a * b;
    end = clock();
    printf("CPU cycles to execute float multiplication operation: %d\n", end-start);
}

int main()
{
    int a,b;
    float c,d;

    a = 3, b = 6;
    c = 3.7534, d = 6.85464;

    intAddition(a,b);
    intMult(a,b);
    floatAddition(c,d);
    floatMult(c,d);

    return 0;
}

2 个答案:

答案 0 :(得分:6)

clock()返回的值是clock_t类型(实现定义的算术类型)。它代表了&#34;实现对处理器的最佳近似 自实施定义时代开始以来该计划使用的时间 只对程序调用&#34; (N1570 7.27.2.1)。

给定clock_t值,您可以通过将CLOCKS_PER_SEC乘以<time.h>中定义的实现定义的宏来确定它所代表的秒数。 POSIX要求CLOCKS_PER_SEC为一百万,但在不同系统上可能有不同的值。

特别注意,CLOCKS_PER_SEC的值必然与clock()函数的实际精度相对应。

根据实现,如果消耗的CPU时间量小于clock()函数的精度,则对clock()的两次连续调用可能返回相同的值。在我测试的一个系统上,clock()函数的分辨率为0.01秒;在那段时间内,CPU可以执行批次指令。

这是一个测试程序:

#include <stdio.h>
#include <time.h>
#include <limits.h>
int main(void) {
    long count = 0;
    clock_t c0 = clock(), c1;
    while ((c1 = clock()) == c0) {
        count ++;
    }
    printf("c0 = %ld, c1 = %ld, count = %ld\n",
           (long)c0, (long)c1, count);
    printf("clock_t is a %d-bit ", (int)sizeof (clock_t) * CHAR_BIT);
    if ((clock_t)-1 > (clock_t)0) {
        puts("unsigned integer type");
    }
    else if ((clock_t)1 / 2 == 0) {
        puts("signed integer type");
    }
    else {
        puts("floating-point type");
    }
    printf("CLOCKS_PER_SEC = %ld\n", (long)CLOCKS_PER_SEC);
    return 0;
}

在一个系统(Linux x86_64)上,输出为:

c0 = 831, c1 = 833, count = 0
clock_t is a 64-bit signed integer type
CLOCKS_PER_SEC = 1000000

显然在该系统上,clock()函数的实际分辨率为1或2微秒,并且对clock()的两次连续调用返回不同的值。

在另一个系统(Solaris SPARC)上,输出为:

c0 = 0, c1 = 10000, count = 10447
clock_t is a 32-bit signed integer type
CLOCKS_PER_SEC = 1000000

在该系统上,clock()函数的分辨率为0.01秒(10,000微秒),clock()返回的值在几千次迭代中没有变化。

至少还有一件事需要注意。在clock_t为32位且CLOCKS_PER_SEC == 1000000的系统上,该值可在大约72分钟的CPU时间后回绕,这对于长时间运行的程序可能很重要。有关详细信息,请参阅系统文档。

答案 1 :(得分:3)

在某些编译器上,clock()以毫秒为单位测量时间。此外,编译器对于简单测试来说太聪明了,它可能会跳过所有内容,因为这些操作的结果没有被使用。

例如,此循环可能需要不到1毫秒(除非打开调试器或关闭优化)

int R = 1;
int a = 2;
int b = 3;
start = clock();
for( int i = 0; i < 10000000; i++ ) 
    R = a * b;
printf( "time passed: %ld\n", clock() - start );

R始终是相同的数字(6),甚至没有使用R.编译器可以跳过所有计算。你必须在最后打印R或做其他事情来欺骗编译器配合测试。