当我运行下面的代码时,我得到一个值0,有几次我得到了一个intAddition的值。我尝试了很多在网上找到的建议,但尚未占上风。我的同学告诉我他是如何做到的,这跟我的非常相似。他从他的节目中获得了1到3的小值。
感谢您的帮助!
#include <iostream>
#include <time.h>
#include <stdio.h>
clock_t start, end;
void intAddition(int a, int b){
start = clock();
a + b;
end = clock();
printf("CPU cycles to execute integer addition operation: %d\n", end-start);
}
void intMult(int a, int b){
start = clock();
a * b;
end = clock();
printf("CPU cycles to execute integer multiplication operation: %d\n", end-start);
}
void floatAddition(float a, float b){
start = clock();
a + b;
end = clock();
printf("CPU cycles to execute float addition operation: %d\n", end-start);
}
void floatMult(float a, float b){
start = clock();
a * b;
end = clock();
printf("CPU cycles to execute float multiplication operation: %d\n", end-start);
}
int main()
{
int a,b;
float c,d;
a = 3, b = 6;
c = 3.7534, d = 6.85464;
intAddition(a,b);
intMult(a,b);
floatAddition(c,d);
floatMult(c,d);
return 0;
}
答案 0 :(得分:6)
clock()
返回的值是clock_t
类型(实现定义的算术类型)。它代表了&#34;实现对处理器的最佳近似
自实施定义时代开始以来该计划使用的时间
只对程序调用&#34; (N1570 7.27.2.1)。
给定clock_t
值,您可以通过将CLOCKS_PER_SEC
乘以<time.h>
中定义的实现定义的宏来确定它所代表的秒数。 POSIX要求CLOCKS_PER_SEC
为一百万,但在不同系统上可能有不同的值。
特别注意,CLOCKS_PER_SEC
的值不必然与clock()
函数的实际精度相对应。
根据实现,如果消耗的CPU时间量小于clock()
函数的精度,则对clock()
的两次连续调用可能返回相同的值。在我测试的一个系统上,clock()
函数的分辨率为0.01秒;在那段时间内,CPU可以执行批次指令。
这是一个测试程序:
#include <stdio.h>
#include <time.h>
#include <limits.h>
int main(void) {
long count = 0;
clock_t c0 = clock(), c1;
while ((c1 = clock()) == c0) {
count ++;
}
printf("c0 = %ld, c1 = %ld, count = %ld\n",
(long)c0, (long)c1, count);
printf("clock_t is a %d-bit ", (int)sizeof (clock_t) * CHAR_BIT);
if ((clock_t)-1 > (clock_t)0) {
puts("unsigned integer type");
}
else if ((clock_t)1 / 2 == 0) {
puts("signed integer type");
}
else {
puts("floating-point type");
}
printf("CLOCKS_PER_SEC = %ld\n", (long)CLOCKS_PER_SEC);
return 0;
}
在一个系统(Linux x86_64)上,输出为:
c0 = 831, c1 = 833, count = 0
clock_t is a 64-bit signed integer type
CLOCKS_PER_SEC = 1000000
显然在该系统上,clock()
函数的实际分辨率为1或2微秒,并且对clock()
的两次连续调用返回不同的值。
在另一个系统(Solaris SPARC)上,输出为:
c0 = 0, c1 = 10000, count = 10447
clock_t is a 32-bit signed integer type
CLOCKS_PER_SEC = 1000000
在该系统上,clock()
函数的分辨率为0.01秒(10,000微秒),clock()
返回的值在几千次迭代中没有变化。
至少还有一件事需要注意。在clock_t
为32位且CLOCKS_PER_SEC == 1000000
的系统上,该值可在大约72分钟的CPU时间后回绕,这对于长时间运行的程序可能很重要。有关详细信息,请参阅系统文档。
答案 1 :(得分:3)
在某些编译器上,clock()以毫秒为单位测量时间。此外,编译器对于简单测试来说太聪明了,它可能会跳过所有内容,因为这些操作的结果没有被使用。
例如,此循环可能需要不到1毫秒(除非打开调试器或关闭优化)
int R = 1;
int a = 2;
int b = 3;
start = clock();
for( int i = 0; i < 10000000; i++ )
R = a * b;
printf( "time passed: %ld\n", clock() - start );
R始终是相同的数字(6),甚至没有使用R.编译器可以跳过所有计算。你必须在最后打印R或做其他事情来欺骗编译器配合测试。