所以我有以下代码:
档案:Cuda.cu
template <typename T>
__global__ void xpy( int n, T *x, T *y, T *r )
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
if (i < n) r[i] = x[i] + y[i];
}
mtx_mtx_add( float *a1, float *a2, float *r, const int &numElements )
{
// snip
xpy<<<numBlocks, blockSize>>>(numElements, a1, a2, r);
}
mtx_mtx_add( int *a1, int *a2, int *r, const int &numElements ) {:::}
mtx_mtx_add( long long *a1, long long *a2, long long *r, const int &numElements ) {:::}
文件:调用代码
extern "C" bool mtx_mtx_add( float *a1, float *a2, float *r, int &numElements );
extern "C" bool mtx_mtx_add( float *a1, float *a2, float *r, int &numElements );
extern "C" bool mtx_mtx_add( float *a1, float *a2, float *r, int &numElements );
int main()
{
... ...
mtx_mtx_add(...);
}
现在我想要的是mtx_mtx_add函数是模板化的。这是可能的,如果是这样的话?
答案 0 :(得分:7)
CUDA中的编程基本上是C ++。您可以像在标准C ++程序中一样使用C ++语言的所有功能。
您可以按如下方式创建功能模板:
template<typename T>
bool mtx_mtx_add(T *a1, T *a2, T *r, const int &numElements)
{
xpy<T><<<numBlocks, blockSize>>>(numElements, a1, a2, r);
}
然后,您可以将不同数据类型的函数模板专门化为:
template bool mtx_mtx_add<float>(float* a1, float* a2, float* r, const int& numElements);
template bool mtx_mtx_add<int>(int* a1, int* a2, int* r, const int& numElements);