opencl内核实现了一个简单的数学公式

时间:2012-06-01 19:44:25

标签: opencl

实现定义为

的错误函数时,需要考虑哪些最佳实践

error formula

使用OpenCL内核?

A,B和C是3D浮点数组,\ delta是Kronecker delta。

(N,M)=(2,7)或(N,M)=(3,23)的典型值。

天真的实现(如下所示)比CPU版本慢几个数量级。

谢谢,

吨。

__kernel void cl_bilinear_alg(
                            __global float * A,
                            __global float * B,
                            __global float * C,
                            __global const int M,
                            __global const int N,
                            __global float * R)
{
    int index = get_global_id(0);
    int N2 = N * N;
    int mat_offset = index * N2 * M;
    float s1, s2, err = 0.0f;

    for (int i = 0; i < N; ++i)
    {
        for (int j = 0; j < N; ++j)
        {
            for (int k = 0; k < N; ++k)
            {
                for (int l = 0; l < N; ++l)
                {
                    for (int m = 0; m < N; ++m)
                    {
                        for (int n = 0; n < N; ++n)
                        {
                            s1 = (n == i) * (j == k) * (l == m);
                            s2 = 0;

                            for (int r = 0; r < M; ++r)
                            {
                                s2 += A[mat_offset + r * N2 + i * N + j] *
                                      B[mat_offset + r * N2 + k * N + l] *
                                      C[mat_offset + r * N2 + m * N + n];
                            }
                            err += (s2 - s1) * (s2 - s1);
                        }
                    }
                }
            }
        }
    }
    R[index] = err;
}

更新

主要目标是Geforce GTX 570,但未来可能会发生变化。

UPDATE2

对代码进行向量化后,将位移动到本地内存,展开一些循环并将预先计算好的Kronecker产品显式传递给内核,代码如下所示:

__kernel void cl_bilinear_alg(__global const float * A,
                              __global const float * B,
                              __global const float * C,
                              __global const int N,
                              __global const int M,
                              __global const float * kron,
                              __global float * R) 
{
    __private int index = get_global_id(0);
    __private int cM = ceil(M / 4.0f);
    __private int N2 = N*N;
    __private int N4 = N2*N2;
    __private int mat_offset = index * N2 * M;
    __private float s1, s2, err = 0;
    __private float4 vzero = (float4) (0.0f, 0.0f, 0.0f, 0.0f);
    __local float4 va[54], vb[54], vc[54];

for (int ij = 0, k = 0; ij < N2; ++ij)
{
    int r = 0;
    for (; r < M / 4; r += 4, ++k)
    {
        int idx0 = mat_offset + N2 * r + ij;
        int idx1 = mat_offset + N2 * (r + 1) + ij;
        int idx2 = mat_offset + N2 * (r + 2) + ij;
        int idx3 = mat_offset + N2 * (r + 3) + ij;
        va[k] = (float4) (A[idx0], A[idx1], A[idx2], A[idx3]);
        vb[k] = (float4) (B[idx0], B[idx1], B[idx2], B[idx3]);
        vc[k] = (float4) (C[idx0], C[idx1], C[idx2], C[idx3]);
    }

    if (M % 4)
    {
        float buffa[4] = {0}, buffb[4] = {0}, buffc[4] = {0};
        for (; r < M; ++r)
        {
            int idx = mat_offset + N2 * r + ij;
            buffa[r % 4] = A[idx];
            buffb[r % 4] = B[idx];
            buffc[r % 4] = C[idx];
        }
        va[k] = vload4(0, buffa);
        vb[k] = vload4(0, buffb);
        vc[k++] = vload4(0, buffc);
    }
}    

for (int ij = 0; ij < N2; ++ij)
{
    for (int kl = 0; kl < N2; ++kl)
    {
        for (int mn = 0; mn < N2; ++mn)
        {
            s1 = kron[ij * N4 + kl * N2 + mn];
            s2 = 0;
            for (int r = 0; r < cM; ++r)
                s2 += dot(va[cM * ij + r], mad(vb[cM * kl + r], vc[cM * mn + r], vzero));

            //the most expensive line
            err += (s2 - s1) * (s2 - s1);
        }
    }
}

R[index] = err;
}

通过应用这些变化,与天真实施相比,观察到速度提高了4倍。此外,据透露,最昂贵的一行是错误更新,即

err += (s2 - s1) * (s2 - s1);

有什么建议吗?

1 个答案:

答案 0 :(得分:0)

通常你想打破一些循环......很多...... - 外部循环分为多个workgroup,它们在自己的计算单元上运行(每个GPU大约有16个计算单元,而不是很多) - 接下来的几个循环将分成每个工作组内的不同线程

如果你试图同时运行所有的计算,他们都会尝试同时将数据加载到内存中,这将简单地肆意破坏。 GPU的内存非常有限。当然,全局内存听起来足够大,几千兆字节,但全球GPU内存很慢。您希望将数据放入本地内存(每个计算单元),大小为32-64KB,而不是更多。

您通常希望以某种方式将您的任务划分为非常小的任务,并针对每个工作组执行以下操作:

  • 将一块内存从全局内存加载到本地内存中
    • 线程的整个工作组warp可以使用通用访问
    • 参与复制
  • 在这个记忆中工作,就像做一些总和一样,等等。
  • 将结果写回全局记忆
  • 然后,可以迭代一下,或者只是退出,并留下其他工作组来处理工作的其他部分

在CPU上,数学运算往往是一个主要的瓶颈,但在GPU上,核心通常无用地旋转,同时等待数据从全局内存逐渐到达它们。无论您如何优化此流程,防止冲突的需求等,都会使内核显着加快。