我有以下AVX和Native代码:
__forceinline double dotProduct_2(const double* u, const double* v)
{
_mm256_zeroupper();
__m256d xy = _mm256_mul_pd(_mm256_load_pd(u), _mm256_load_pd(v));
__m256d temp = _mm256_hadd_pd(xy, xy);
__m128d dotproduct = _mm_add_pd(_mm256_extractf128_pd(temp, 0), _mm256_extractf128_pd(temp, 1));
return dotproduct.m128d_f64[0];
}
__forceinline double dotProduct_1(const D3& a, const D3& b)
{
return a[0] * b[0] + a[1] * b[1] + a[2] * b[2] + a[3] * b[3];
}
各自的测试脚本:
std::cout << res_1 << " " << res_2 << " " << res_3 << '\n';
{
std::chrono::high_resolution_clock::time_point t1 = std::chrono::high_resolution_clock::now();
for (int i = 0; i < (1 << 30); ++i)
{
zx_1 += dotProduct_1(aVx[i % 10000], aVx[(i + 1) % 10000]);
}
std::chrono::high_resolution_clock::time_point t2 = std::chrono::high_resolution_clock::now();
std::cout << "NAIVE : " << std::chrono::duration_cast<std::chrono::milliseconds>(t2 - t1).count() << '\n';
}
{
std::chrono::high_resolution_clock::time_point t1 = std::chrono::high_resolution_clock::now();
for (int i = 0; i < (1 << 30); ++i)
{
zx_2 += dotProduct_2(&aVx[i % 10000][0], &aVx[(i + 1) % 10000][0]);
}
std::chrono::high_resolution_clock::time_point t2 = std::chrono::high_resolution_clock::now();
std::cout << "AVX : " << std::chrono::duration_cast<std::chrono::milliseconds>(t2 - t1).count() << '\n';
}
std::cout << math::min2(zx_1, zx_2) << " " << zx_1 << " " << zx_2;
好吧,所有的数据都是由32对齐的(带有__declspec的D3 ...和带有_mm_malloc()的aVx arr ...) 而且,正如我所看到的,原生变体与AVX变体相同/更快。我无法理解这是不正常的行为?因为我认为AVX是'超级快'......如果没有,我怎么能优化它?我使用arch AVX在MSVC 2015(x64)上编译它。另外,我的硬件是intel i7 4750HQ(haswell)
答案 0 :(得分:2)
你在vzeroupper和hadd指令中添加了太多的开销。写它的好方法是在循环中进行所有乘法运算并在结束时仅将结果聚合一次。想象一下,您将原始循环展开4次并使用4个累加器:
for(i=0; i < (1<<30); i+=4) {
s0 += a[i+0] * b[i+0];
s1 += a[i+1] * b[i+1];
s2 += a[i+2] * b[i+2];
s3 += a[i+3] * b[i+3];
}
return s0+s1+s2+s3;
现在只需用SIMD mul替换展开的循环并添加(如果可用的话,甚至是FMA内在的)
答案 1 :(得分:2)
使用基本循环进行简单分析并不是一个好主意 - 它通常只意味着你的内存带宽有限,所以测试最终会以大约相同的速度出现(内存通常比CPU慢,这基本上就是你在这里测试的所有内容)。
正如其他人所说的那样,你的代码示例并不是很好,因为你经常跨越(我认为这只是为了找到最快的点积,并且不是特别因为所有点积的总和是期望的结果?)。老实说,如果你真的需要一个快点产品(对于这里提供的AOS数据),我想我更愿意用VADDPD + VPERMILPD 替换VHADDPD(交换额外指令两倍的吞吐量,和低延迟)
double dotProduct_3(const double* u, const double* v)
{
__m256d dp = _mm256_mul_pd(_mm256_load_pd(u), _mm256_load_pd(v));
__m128d a = _mm256_extractf128_pd(dp, 0);
__m128d b = _mm256_extractf128_pd(dp, 1);
__m128d c = _mm_add_pd(a, b);
__m128d yy = _mm_unpackhi_pd(c, c);
__m128d dotproduct = _mm_add_pd(c, yy);
return _mm_cvtsd_f64(dotproduct);
}
ASM:
dotProduct_3(double const*, double const*):
vmovapd ymm0,YMMWORD PTR [rsi]
vmulpd ymm0,ymm0,YMMWORD PTR [rdi]
vextractf128 xmm1,ymm0,0x1
vaddpd xmm0,xmm1,xmm0
vpermilpd xmm1,xmm0,0x3
vaddpd xmm0,xmm1,xmm0
vzeroupper
ret
一般来说,如果你使用水平加法,那你就错了!虽然256位寄存器似乎是Vector4d的理想选择,但它实际上并不是一个特别好的表示(特别是如果你认为AVX512现在可用了!)。最近出现了一个非常类似的问题:For C++ Vector3 utility class implementations, is array faster than struct and class?
如果你想要性能,那么阵列结构是最好的方法。
struct HybridVec4SOA
{
__m256d x;
__m256d y;
__m256d z;
__m256d w;
};
__m256d dot(const HybridVec4SOA& a, const HybridVec4SOA& b)
{
return _mm256_fmadd_pd(a.w, b.w,
_mm256_fmadd_pd(a.z, b.z,
_mm256_fmadd_pd(a.y, b.y,
_mm256_mul_pd(a.x, b.x))));
}
ASM:
dot(HybridVec4SOA const&, HybridVec4SOA const&):
vmovapd ymm1,YMMWORD PTR [rdi+0x20]
vmovapd ymm2,YMMWORD PTR [rdi+0x40]
vmovapd ymm3,YMMWORD PTR [rdi+0x60]
vmovapd ymm0,YMMWORD PTR [rsi]
vmulpd ymm0,ymm0,YMMWORD PTR [rdi]
vfmadd231pd ymm0,ymm1,YMMWORD PTR [rsi+0x20]
vfmadd231pd ymm0,ymm2,YMMWORD PTR [rsi+0x40]
vfmadd231pd ymm0,ymm3,YMMWORD PTR [rsi+0x60]
ret
如果比较load / mul / fmadd与hadd和extract相比的延迟(更重要的是吞吐量),然后考虑SOA版本一次计算4个点产品(而不是1个),那么你&#39 ;我将开始明白为什么它要走了......