我正在尝试评估OpenCL for AMD和Nvidia GPU之间的性能差异。我有一个执行矩阵向量乘法的内核。我现在在两个不同的系统上运行内核,我的笔记本电脑有一个带Ubuntu 12.04的NVidia GT525m和CUDA 4.0(包含OpenCL库和标题),另一个是带有Ubuntu的AMD Radeon HD7970的桌面12.04和最新的Catalyst驱动程序。
在内核中,我有两个#pragma unroll
语句,这些语句为Nvidia OpenCL实现提供了很大的加速(~6x)。但是,AMD OpenCL版本不会产生任何加速。使用AMD APP内核分析器查看内核会出现错误,因为行程计数未知,因此未使用展开。
所以我的问题是,#pragma unroll
是否适用于AMD OpenCL,或者是否存在替代方案(可能是我不知道的编译器标志)。我已经包含了
__kernel void mvKernel(__global float* a, const __global float* x, __global float* y, int m, int n)
{
float sum = 0.0f;
__global float* A;
int i;
int j = 0;
int indx = get_global_id(0);
__local float xs[12000];
#pragma unroll
for(i = get_local_id(0); i < n; i+= get_local_size(0)) {
xs[i] = x[i];
}
barrier(CLK_LOCAL_MEM_FENCE);
A = &a[indx];
#pragma unroll 256
for(i = 0; i < n; i++) {
sum += xs[i] * A[j];
j += m;
}
y[indx] = sum;
}
同样的内核在两个实现中都会产生正确的结果,但#pragma unroll命令对AMD没有任何作用(通过注释它们来检查)。
答案 0 :(得分:8)
没有记录,但它实际上应该与#pragma unroll
一起使用。您是否可以检查编译器日志以查看是否应用了展开?我不确定内核分析器是否使用与OpenCL运行时相同的编译器,您可能需要检查。
否则,如果您知道n
以256个块的形式出现,您可以通过在256个元素的块上进行一个循环而另一个循环使用256的固定大小来手动展开,这可能更容易展开。这肯定会解决旅行计数静态不知道的问题。
但是,请记住,展开循环通常不是一个很大的胜利,因为你没有很多寄存器来缓存你的计算。来自循环展开的寄存器压力增加可能导致寄存器溢出,这甚至更慢。您应该检查内核实际上在AMD卡上的速度。较新的NVIDIA OpenCL编译器也可能不会从unroll编译指示中获益。