我已经描述了我拥有的AVX2重量级功能,瓶颈如下所示:
std::uint64_t data[8];
// Some computation that fills data
std::uint64_t X[4] = { data[7], data[5], data[3], data[1] };
__m256i vec = _mm256_loadu_si256(reinterpret_cast<__m256i*>(X));
// Compute more with vec
// Later on use data[6], data[4], data[2], and data[0] in a similar fashion
实际上,阵列也是适当对齐的(所以load
代替loadu
)。但问题是,AVX(2)有更快的方法吗?具体来说,我正在查看收集说明。我可以使用它们从vec
初始化data
吗?或者其他一些指示值得一试?
答案 0 :(得分:5)
很难在不知道编译器生成什么代码的情况下发表评论,但这里有一些我的编译器(gcc)必须说的内容。
typedef unsigned long long uint64_t;
typedef uint64_t vec2 __attribute__((vector_size(8*sizeof(uint64_t))));
typedef uint64_t vec __attribute__((vector_size(4*sizeof(uint64_t))));
vec f(vec a,vec b){
vec i={7,5,3,1};
return __builtin_shuffle(a,b,i);
}
vec g(vec2 x){
vec r={x[7],x[5],x[3],x[1]};
return r;
}
我得到f:
vpunpckhqdq %ymm1, %ymm0, %ymm1
vpermq $39, %ymm1, %ymm0
我按值传递向量,通过指针传递它们会给出:
vmovdqa (%rdi), %ymm0
vpunpckhqdq (%rsi), %ymm0, %ymm0
vpermq $39, %ymm0, %ymm0
和g:
vmovq 32(%rsp), %xmm2
vmovq 64(%rsp), %xmm3
vpinsrq $1, 16(%rsp), %xmm2, %xmm1
vpinsrq $1, 48(%rsp), %xmm3, %xmm0
vinserti128 $0x1, %xmm1, %ymm0, %ymm0