内核update_umatrix
无法启动,分析器显示它需要-100%
!计算时间。
这可能是一个简单的问题,但我已经花了两个星期的时间,但内核启动仍然根据nsight剖析器无法启动,至少U
矩阵不会更新并包含所有零(它是部分实施FCM)。
我的GPU是GeForce 330M,其计算能力为1.2
。
float *U;
float *V;
float *X;
__device__ float *U_d;
__device__ float *V_d;
__device__ float *X_d;
__global__ void update_umatrix(float *sqrerror,int C,int N,int S,float m)
{
int i,j,k;
int example_is_centroid;
float summation, D_ki, D_kj;
float newU;
__shared__ float tmp_sqrerror[DIM];
/* For each example in the dataset */
k = threadIdx.x + blockIdx.x*blockDim.x;
int local_offset = threadIdx.x;
tmp_sqrerror[local_offset]=0;
/* Special case: If Example is equal to a Cluster Centroid,
then U=1.0 for that cluster and 0 for all others */
if ( (example_is_centroid=is_example_centroid(k,S,C)) != -1 ) {
for(int i=0; i<C; i++)
{
if ( i == example_is_centroid )
U_d[k*C+i]=1.0;
else
U_d[k*C+i]=0.0;
}
return;
}
/* For each class */
for(int i=0; i< C; i++)
{
summation=0;
/* Calculate summation */
for (j=0; j < C; j++) {
D_ki=distance(X_d, V_d,k*DIM,i*S,S);
D_kj=distance(X_d, V_d,k*DIM,j*S,S);
summation += powf( D_ki / D_kj , (2.0/ (m-1)));
}
/* Weight is 1/sum */
newU=1.0/summation;
/* Add to the squareDifference */
tmp_sqrerror[local_offset] += powf(U_d[k*C+i] - newU, 2);
U_d[k*C+i]=newU;
}
__syncthreads();
int t= blockDim.x/2;
while(t>0)
{
if(k+t < N && threadIdx.x<t)
tmp_sqrerror[local_offset] += tmp_sqrerror[local_offset+t];
t/=2;
__syncthreads();
}
if(threadIdx.x==0)
sqrerror[blockIdx.x] = tmp_sqrerror[0];
}
int init()
{
float m = 2.0;
int C=2;
int S=2;
int N=340*340;
int i,j;
/* Allocate necessary storage */
V=(float *)CALLOC(S*C, sizeof(float));
U=(float *)CALLOC(C*N,sizeof(float));
cudaGetErrorString(cudaMalloc(&U_d,N*C*sizeof(float)));
cudaGetErrorString(cudaMalloc(&V_d,C*S*sizeof(float)));
/* Place random values in V, then update U matrix based on it */
srand48(seed);
for (i=0; i < C; i++) {
for (j=0; j < S; j++) {
V[i*S+j]=drand48() * max_value[j];
}
}
float *dummy;
cudaMalloc(&dummy,N*sizeof(float));
cudaGetErrorString(cudaMemcpyToSymbol(&V_d,V,C*S*sizeof(float),0,cudaMemcpyHostToDevice));
/* Once values are populated in V, update the U Matrix for sane values */
update_umatrix<<<(N+DIM-1)/DIM,DIM>>>(dummy,C,N,S,m);
cudaGetErrorString(cudaGetLastError());
cudaDeviceSynchronize();
cudaGetErrorString(cudaMemcpyFromSymbol(U,&U_d,N*C*sizeof(float),cudaMemcpyDeviceToHost));
fprintf(stdout,"Initialization completed.\n");
return 0;
}
如果某个i的X [k] == V [i],则返回i。否则,返回-1
__device__ int is_example_centroid(int k,int S, int C)
{
int i,x;
for (i=0; i < C; i++) {
for (x=0; x < S; x++) {
if ( X_d[k*DIM+x] != V_d[i*S+x] ) break;
}
if ( x == S ) /* X==V */
return i;
}
return -1;
}
距离函数:
__device__ float distance(float *v1, float *v2,int startV1,int startV2,int S)
{
int x,i;
float sum=0;
for (x=startV1,i=startV2; x < startV1+DIM && i<startV2+S; x++, i++)
sum += (v1[x] - v2[i]) * (v1[x] - v2[i]);
return sqrt(sum);
}
答案 0 :(得分:2)
这行代码无效:
cudaGetErrorString(cudaMemcpyToSymbol(&V_d,V,C*S*sizeof(float),0,cudaMemcpyHostToDevice));
它将编译,但它会在运行时抛出错误。由于您似乎已将其包装并进行错误检查,因此我只能假设您的错误检查已损坏。
您传递给cudaMemcpyToSymbol
的符号必须是有效符号仅。它不能是符号的地址,符号加偏移或类似的东西。
我也相信这行代码不合理,虽然我无法向自己证明它无法正常工作:
cudaGetErrorString(cudaMalloc(&V_d,C*S*sizeof(float)));
如果你愿意,你可以这样做,但我不确定它是在做你想要的,或者malloc的区域是以任何方式从主机访问的。
如果您想要可变大小的动态设备分配,为什么不使用普通的cudaMalloc方法呢?为什么使用设备符号?我不是说你不能以某种方式使它工作,但这不是这样做的方式。
编辑回复以下问题: 如果你想要消除一个函数参数并使用一个设备变量,你可能会让它工作但对我来说似乎很麻烦,到底是什么?
无论如何,如果我觉得我真的需要这样做,我就会这样做:
#include <stdio.h>
#define cudaCheckErrors(msg) \
do { \
cudaError_t __err = cudaGetLastError(); \
if (__err != cudaSuccess) { \
fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \
msg, cudaGetErrorString(__err), \
__FILE__, __LINE__); \
fprintf(stderr, "*** FAILED - ABORTING\n"); \
exit(1); \
} \
} while (0)
float *V, *d_V;
__device__ float *V_d;
__global__ void my_kernel(){
printf("V[3] = %f\n", V_d[3]);
}
int main() {
int C=2;
int S=2;
V=(float *)calloc(S*C, sizeof(float));
V[0] = 0.0f;
V[3] = 4.0f;
cudaMalloc((void **)&d_V,C*S*sizeof(float));
cudaCheckErrors("malloc");
cudaMemcpy(d_V, V, C*S*sizeof(float), cudaMemcpyHostToDevice);
cudaCheckErrors("memcpy");
cudaMemcpyToSymbol(V_d,&d_V,sizeof(float *));
cudaCheckErrors("symbol");
my_kernel<<<1,1>>>();
cudaDeviceSynchronize();
cudaCheckErrors("kernel");
return 0;
}