我正在寻找最高效的方法来计算 SSE-128/AVX-256/AVX-512 寄存器(128 位和 256 位和 512 位)中所有浮点 X
的第一个整数幂,例如对于浮点 AVX1-256,我想在给定 X^1, X^2, X^3, X^4, X^5, X^6, X^7, X^8
输入时进入寄存器 X
。我需要 float-32 和 double-64 的代码。
我为 AVX-256/float-32 案例实现了这段代码:
__m256 _mm256_powers_ps(float x) {
float const x2 = x * x, x4 = x2 * x2;
return _mm256_mul_ps(
_mm256_mul_ps(
_mm256_setr_ps( x, x2, x, x2, x, x2, x, x2),
_mm256_setr_ps( 1, 1, x2, x2, 1, 1, x2, x2)
),
_mm256_setr_ps( 1, 1, 1, 1, x4, x4, x4, x4)
);
}
我设计它主要是为了看起来简单。但我认为在性能方面它可以做得更快,也许少一两个乘法。有人可以推荐一个更快的版本吗?也许甚至有一些单一的 AVX 指令来计算这些能力?
我对所有 128 位(4 个浮点数或 2 个双精度数)和 256 位(8 个浮点数或 4 个双精度数)和 512 位 SIMD 寄存器(16 个浮点数)的 float-32 和 double-64 版本都感兴趣或 8 个双打)。
我还实现了可能更快的版本,看起来更复杂,但乘法少了,没有进行速度比较:
__m256 _mm256_powers_ps(float x) {
float const x2 = x * x;
__m256 const r = _mm256_mul_ps(
_mm256_setr_ps( x, x2, x, x2, x, x2, x, x2),
_mm256_setr_ps( 1, 1, x2, x2, 1, 1, x2, x2)
);
return _mm256_mul_ps(r,
_mm256_setr_m128(_mm_set1_ps(1),
_mm_permute_ps(_mm256_castps256_ps128(r), 0b11'11'11'11))
);
}
我也在考虑简单的非 SIMD 解决方案可能也很快,因为许多独立乘法的并行流水线良好:
__m256 _mm256_powers_ps(float x) {
auto const x2 = x * x;
auto const x3 = x2 * x;
auto const x4 = x2 * x2;
return _mm256_setr_ps(
x, x2, x3, x4, x4 * x, x4 * x2, x4 * x3, x4 * x4);
}
注意:计算浮点或双精度多项式的阶段需要 X
的这些幂,请参阅我关于在 SIMD 上计算多项式的 other question。这个多项式可能有不同的度数,有时是 3,有时是 6,有时是 9,有时是 15,甚至是 25 或 32 或 43 度。这个数字是任意的,实际上可以使用整个范围的 1-48 次多项式。多项式的系数预先作为常数给出。但是事先不知道应该为其计算的值 X
。当然,我将使用 FMA
模块来计算 poly 值本身,但是使用 SIMD 计算 poly 需要预先计算的 X
幂。
最常用的目标 CPU 是 Intel Xeon Gold 6230,它有 AVX-512,所以我需要为它优化代码。