我正在C中实现一个数学库,该数学库大量使用乘法。最初,我所有的乘法都是使用uint16_t
完成的。最近,我将其中的许多更改为uint32_t
,并且看到我的代码运行时间几乎翻了一番。正如我在Intel x64处理器中所认为的那样,我感到困惑,32位和16位乘法需要相同的时钟周期。
我写了诊断代码,请在下面找到它
#include <stdio.h>
#include <stdint.h>
#include <stdlib.h>
#include <time.h>
#include "cpucycles.c"
#define REPEAT 10000
#define OUT_REPEAT 100000
void main(){
uint16_t a_16[REPEAT], b_16[REPEAT], c_16[REPEAT];
uint32_t a_32[REPEAT], b_32[REPEAT], c_32[REPEAT];
int32_t i,j;
uint64_t clock1, clock2, CLOCK16, CLOCK32;
uint64_t acc=0;
time_t t;
srand((unsigned) time(&t));
clock1=clock2=CLOCK16=CLOCK32=0;
for(j=0;j<OUT_REPEAT;j++){
for(i=0;i<REPEAT;i++){
a_16[i]=rand()& ( (1<<13) -1); //need 13-bit integers only
b_16[i]=rand()& ( (1<<13) -1);
a_32[i]=rand()&( (1<<19) -1);
b_32[i]=rand()&( (1<<19) -1); //need 19-bit integers only
}
clock1=cpucycles();
for(i=0;i<REPEAT;i++){
c_16[i]=a_16[i]*b_16[i];
}
clock2=cpucycles();
CLOCK16=CLOCK16+(clock2-clock1);
clock1=cpucycles();
for(i=0;i<REPEAT;i++){
c_32[i]=a_32[i]*b_32[i];
}
clock2=cpucycles();
CLOCK32=CLOCK32+(clock2-clock1);
for(i=0;i<REPEAT;i++){
acc=(acc+(c_32[i]-(uint32_t)c_16[i])); //this is just to prevent compiler optimization
}
printf("Iteration: %d, acc:%llu\n", j, acc);
acc=0;
}
printf("\n--------------------------------------------\n");
printf("Time for 16 bit multiplication : %llu\n", CLOCK16/OUT_REPEAT);
printf("Time for 32 bit multiplication : %llu\n", CLOCK32/OUT_REPEAT);
printf("\n--------------------------------------------\n");
}
cpucycles代码来自ECRYPT,如下所示,
#include "cpucycles.h"
long long cpucycles(void)
{
unsigned long long result;
asm volatile(".byte 15;.byte 49;shlq $32,%%rdx;orq %%rdx,%%rax"
: "=a" (result) :: "%rdx");
return result;
}
使用单核并禁用超线程/ TurboBoost的一次示例运行的结果
--------------------------------------------
Time for 16 bit multiplication : 2795
Time for 32 bit multiplication : 4190
--------------------------------------------
最后是lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Model name: Intel(R) Core(TM) i7-7700 CPU @ 3.60GHz
现在我的问题是,
在x64平台上,与32位乘法相比,16位乘法占用总时间的一半是否正确?还是我做错了事。
如果可以,请给我一些参考以证明这种行为合理吗?
先谢谢您。 我感谢您的帮助。
答案 0 :(得分:6)
在x64平台上,与32位乘法相比,16位乘法占用总时间的一半是否正确?还是我做错了事。
不,这本身是不正确的。分别不是您实际测试过的。
您的短循环可轻松实现矢量化,因此这正是编译器所做的。根据目标CPU的生成,这意味着可以使用128、256或512位向量类型,可以将其划分为不同的字长(8位,16位,32位,64位,128位),然后可以对多个元素执行矢量化乘法一旦。不仅对乘法进行了运算,而且对进出内存的数字进行了完全矢量化处理,并且不仅对单个元素进行运算。
为简单起见,与32位相比,同一向量中可以容纳两倍多的16位整数。而且您的代码实际上也不受乘法的限制-受加载/存储的限制纯粹,因此您仅成功地测量出16位整数是32位整数的一半,因此在进行矢量化和绑定时通过加载/存储,您可以同时加载两倍的元素。
如果希望对特定指令进行基准测试(在本例中为单元素乘法),则需要通过内联汇编显式使用该特定指令。您还需要了解所有会影响性能的副作用和前提条件,流水线式超标量体系结构通常对于基准测试而言并非微不足道。
否则,编译器应尽可能优化(向量化,折叠,内联等)代码。