如何使用SSE执行8 x 8矩阵运算?

时间:2011-11-27 13:20:26

标签: c++ sse intrinsics

我最初的尝试看起来像这样(我们想要增加)

  __m128 mat[n]; /* rows */
  __m128 vec[n] = {1,1,1,1};
  float outvector[n];
   for (int row=0;row<n;row++) {
       for(int k =3; k < 8; k = k+ 4)
       {
           __m128 mrow = mat[k];
           __m128 v = vec[row];
           __m128 sum = _mm_mul_ps(mrow,v);
           sum= _mm_hadd_ps(sum,sum); /* adds adjacent-two floats */
       }
           _mm_store_ss(&outvector[row],_mm_hadd_ps(sum,sum));
 }

但这显然不起作用。我该如何处理?

我应该一次加载4个......

另一个问题是:如果我的数组非常大(比如说n = 1000),我怎样才能使它16字节对齐?这甚至可能吗?

2 个答案:

答案 0 :(得分:4)

好的......我将使用行主矩阵约定。 [m]的每一行都需要(2)__m128元素才能产生8个浮点数。 8x1向量v是列向量。由于您使用的是haddps指令,因此我假设SSE3可用。查找r = [m] * v

void mul (__m128 r[2], const __m128 m[8][2], const __m128 v[2])
{
    __m128 t0, t1, t2, t3, r0, r1, r2, r3;

    t0 = _mm_mul_ps(m[0][0], v[0]);
    t1 = _mm_mul_ps(m[1][0], v[0]);
    t2 = _mm_mul_ps(m[2][0], v[0]);
    t3 = _mm_mul_ps(m[3][0], v[0]);

    t0 = _mm_hadd_ps(t0, t1);
    t2 = _mm_hadd_ps(t2, t3);
    r0 = _mm_hadd_ps(t0, t2);

    t0 = _mm_mul_ps(m[0][1], v[1]);
    t1 = _mm_mul_ps(m[1][1], v[1]);
    t2 = _mm_mul_ps(m[2][1], v[1]);
    t3 = _mm_mul_ps(m[3][1], v[1]);

    t0 = _mm_hadd_ps(t0, t1);
    t2 = _mm_hadd_ps(t2, t3);
    r1 = _mm_hadd_ps(t0, t2);

    t0 = _mm_mul_ps(m[4][0], v[0]);
    t1 = _mm_mul_ps(m[5][0], v[0]);
    t2 = _mm_mul_ps(m[6][0], v[0]);
    t3 = _mm_mul_ps(m[7][0], v[0]);

    t0 = _mm_hadd_ps(t0, t1);
    t2 = _mm_hadd_ps(t2, t3);
    r2 = _mm_hadd_ps(t0, t2);

    t0 = _mm_mul_ps(m[4][1], v[1]);
    t1 = _mm_mul_ps(m[5][1], v[1]);
    t2 = _mm_mul_ps(m[6][1], v[1]);
    t3 = _mm_mul_ps(m[7][1], v[1]);

    t0 = _mm_hadd_ps(t0, t1);
    t2 = _mm_hadd_ps(t2, t3);
    r3 = _mm_hadd_ps(t0, t2);

    r[0] = _mm_add_ps(r0, r1);
    r[1] = _mm_add_ps(r2, r3);
}

对于对齐,__ m128类型的变量应自动在堆栈上对齐。对于动态内存,这不是一个安全的假设。一些malloc / new实现可能只返回保证8字节对齐的内存。

intrinsics标头提供_mm_malloc和_mm_free。在这种情况下,align参数应为(16)。

答案 1 :(得分:2)

英特尔已针对尺寸范围为1×1到6×6的矩阵开发了Small Matrix Library。应用笔记AP-930 Streaming SIMD Extensions - Matrix Multiplication详细描述了两个6×6矩阵相乘的算法。这应该可以通过一些努力适应其他大小的矩阵。