我正在尝试编写一些合理快速的组件向量加法代码。我正在使用(签名,我相信)64位整数。
功能是
void addRq (int64_t* a, const int64_t* b, const int32_t dim, const int64_t q) {
for(int i = 0; i < dim; i++) {
a[i] = (a[i]+b[i])%q; // LINE1
}
}
我在IvyBridge(SSE4.2和AVX,但不是AVX2)上使用icc -std=gnu99 -O3
(icc以后可以使用SVML)进行编译。
我的基线是从LINE1中移除%q
。使用dim=11221184
进行100次(迭代)函数调用需要1.6秒。 ICC自动矢量化SSE代码;大。
我真的想做模块化的补充。使用%q
,ICC不会自动向量化代码,它会在11.8秒(!)内运行。即使忽略了之前尝试的自动矢量化,这似乎仍然过度。
由于我没有AVX2,因此使用SSE进行矢量化需要SVML,这也许就是ICC没有自动矢量化的原因。无论如何,这是我尝试对内循环进行矢量化:
__m128i qs = _mm_set1_epi64x(q);
for(int i = 0; i < dim; i+=2) {
__m128i xs = _mm_load_si128((const __m128i*)(a+i));
__m128i ys = _mm_load_si128((const __m128i*)(b+i));
__m128i zs = _mm_add_epi64(xs,ys);
zs = _mm_rem_epi64(zs,qs);
_mm_store_si128((__m128i*)(a+i),zs);
}
主循环的组装是:
..B3.4: # Preds ..B3.2 ..B3.12
movdqa (%r12,%r15,8), %xmm0 #59.22
movdqa %xmm8, %xmm1 #60.14
paddq (%r14,%r15,8), %xmm0 #59.22
call __svml_i64rem2 #61.9
movdqa %xmm0, (%r12,%r15,8) #61.36
addq $2, %r15 #56.30
cmpq %r13, %r15 #56.24
jl ..B3.4 # Prob 82% #56.24
因此代码按预期进行矢量化。我知道由于SVML,我可能不会获得2倍的加速,但是代码在12.5秒内运行,比没有矢量化的速度慢!这真的是最好的吗?
答案 0 :(得分:12)
SSE2和AVX2都没有整数除法指令。英特尔对于调用SVML函数内在函数是不诚实的,因为它们中的许多都是复杂的函数,它们映射到多个指令而不仅仅是少数指令。
有一种方法可以使用SSE2或AVX2进行更快的分割(和模数)。见本文Improved division by invariant integers。基本上你预先计算一个除数然后进行乘法运算。预计算除数需要时间,但在代码中dim
的某些值应该胜出。我在这里更详细地描述了这种方法SSE integer division?
我还在素数查找器Finding lists of prime numbers with SIMD - SSE/AVX
Agner Fog使用该论文中描述的方法在Vector Class中实现了32位(但不是64位)除法。如果您想要一些代码,那么这将是一个很好的起点,但您必须将其扩展到64位。
编辑:根据Mysticial的评论并假设输入已经减少,我为SSE生成了一个版本。如果这是在MSVC中编译的话那么它需要在64位模式下作为32位模式不支持_mm_set1_epi64x
。这可以在32位模式模式下修复,但我不想这样做。
#ifdef _MSC_VER
#include <intrin.h>
#endif
#include <nmmintrin.h> // SSE4.2
#include <stdint.h>
#include <stdio.h>
void addRq_SSE(int64_t* a, const int64_t* b, const int32_t dim, const int64_t q) {
__m128i q2 = _mm_set1_epi64x(q);
__m128i t2 = _mm_sub_epi64(q2,_mm_set1_epi64x(1));
for(int i = 0; i < dim; i+=2) {
__m128i a2 = _mm_loadu_si128((__m128i*)&a[i]);
__m128i b2 = _mm_loadu_si128((__m128i*)&b[i]);
__m128i c2 = _mm_add_epi64(a2,b2);
__m128i cmp = _mm_cmpgt_epi64(c2, t2);
c2 = _mm_sub_epi64(c2, _mm_and_si128(q2,cmp));
_mm_storeu_si128((__m128i*)&a[i], c2);
}
}
int main() {
const int64_t dim = 20;
int64_t a[dim];
int64_t b[dim];
int64_t q = 10;
for(int i=0; i<dim; i++) {
a[i] = i%q; b[i] = i%q;
}
addRq_SSE(a, b, dim, q);
for(int i=0; i<dim; i++) {
printf("%d\n", a[i]);
}
}