我正在尝试使用CUDA 5.5为常量内存做一个示例代码。我有两个大小为3000的常量数组。我有另一个大小为N的全局数组X. 我想要计算
Y[tid] = X[tid]*A[tid%3000] + B[tid%3000]
这是代码。
#include <iostream>
#include <stdio.h>
using namespace std;
#include <cuda.h>
__device__ __constant__ int A[3000];
__device__ __constant__ int B[3000];
__global__ void kernel( int *dc_A, int *dc_B, int *X, int *out, int N)
{
int tid = threadIdx.x + blockIdx.x*blockDim.x;
if( tid<N )
{
out[tid] = dc_A[tid%3000]*X[tid] + dc_B[tid%3000];
}
}
int main()
{
int N=100000;
// set affine constants on host
int *h_A, *h_B ; //host vectors
h_A = (int*) malloc( 3000*sizeof(int) );
h_B = (int*) malloc( 3000*sizeof(int) );
for( int i=0 ; i<3000 ; i++ )
{
h_A[i] = (int) (drand48() * 10);
h_B[i] = (int) (drand48() * 10);
}
//set X and Y on host
int * h_X = (int*) malloc( N*sizeof(int) );
int * h_out = (int *) malloc( N*sizeof(int) );
//set the vector
for( int i=0 ; i<N ; i++ )
{
h_X[i] = i;
h_out[i] = 0;
}
// copy, A,B,X,Y to device
int * d_X, *d_out;
cudaMemcpyToSymbol( A, h_A, 3000 * sizeof(int) ) ;
cudaMemcpyToSymbol( B, h_B, 3000 * sizeof(int) ) ;
cudaMalloc( (void**)&d_X, N*sizeof(int) ) );
cudaMemcpy( d_X, h_X, N*sizeof(int), cudaMemcpyHostToDevice ) ;
cudaMalloc( (void**)&d_out, N*sizeof(int) ) ;
//call kernel for vector addition
kernel<<< (N+1024)/1024,1024 >>>(A,B, d_X, d_out, N);
cudaPeekAtLastError() ;
cudaDeviceSynchronize() ;
// D --> H
cudaMemcpy(h_out, d_out, N * sizeof(int), cudaMemcpyDeviceToHost ) ;
free(h_A);
free(h_B);
return 0;
}
我正在尝试通过此代码运行调试器来进行分析。事实证明,在复制到常量内存的行上,我使用调试器
得到以下错误Coalescing of the CUDA commands output is off.
[Thread debugging using libthread_db enabled]
[New Thread 0x7ffff5c5b700 (LWP 31200)]
有人可以用常量记忆帮助我吗
答案 0 :(得分:4)
这里有几个问题。通过显示使用这两个常量数组的“正确”方法开始可能更容易,然后解释为什么你做的不起作用。所以内核应该是这样的:
__global__ void kernel(int *X, int *out, int N)
{
int tid = threadIdx.x + blockIdx.x*blockDim.x;
if( tid<N )
{
out[tid] = A[tid%3000]*X[tid] + B[tid%3000];
}
}
即。不要尝试将A和B传递给内核。原因如下:
A
和B
不是有效的设备内存地址。它们是主机符号,它为运行时设备符号查找提供挂钩。将它们传递给内核是非法的 - 如果你想要它们的设备内存地址,你必须使用cudaGetSymbolAddress
在运行时检索它。cudaGetSymbolAddress
并在常量内存中检索符号设备地址,也不应将它们作为参数传递给内核,因为这样做不会在正在运行的内核中产生统一的内存访问。正确使用常量内存需要编译器发出特殊的PTX指令,编译器只有在知道特定的全局内存位置在常量内存中时才会这样做。如果按值将常量内存地址作为参数传递,则__constant__属性将丢失,编译器无法知道是否生成正确的加载指令一旦你开始工作,你会发现它非常慢,如果你对它进行分析,你会发现有很高程度的指令重放和序列化。使用常量内存的整个想法是,当 warp中的每个线程访问常量内存中的相同值时,可以利用常量缓存广播机制。您的示例与此完全相反 - 每个线程都在访问不同的值。在这种用例中,常规全局内存会更快。还要注意模数运算符在当前GPU上的性能很差,你应该尽可能避免使用它。