划分算法,通过cpu核调用函数,并在GPU内核上运行该函数

时间:2011-12-31 23:52:20

标签: c++ parallel-processing opencl

我只是在努力学习并行计算。如果有一个看起来像这样的东西,

long A[12];
long B[5,000,000];
long C[12];
long long total=0;
long long tmp; 

GPUKernel(){

    for (n=0; n < 5,000,000; ++n) {
        B[n]=0;
    }

        for (n=0; n < 5,000,000; ++n) {
             for (n2=0; n2 < 12; ++n2) {
                 B[n]+=C[A[n2]];   
             }
             tmp+=B[n];      
        }  

     if (tmp > total) {
         total=tmp;
         tmp=0;
     } 
 }



int main(){

    srand( (unsigned)time( NULL ) );   

    for (n=0; n < 12; ++n) {
        C[n]=rand() % 1000000;
    }

    for (n=0 ; n < 8916100448256 ; ++n) {    
        ++A[0];
        for (p=0; n<11; ++p) {
            if (A[p]==12) {
                A[p]=0;         
                ++A[p+1];
            } 
        }
    GPUKernel();
    }

 return 0;   
}

我的想法是,我将获得CPU可以使用的线程数。例如,如果有4个,那么我将为每个cpu线程制作所有数据的单独副本。所以每个gpu内核也会拥有自己的数据。这有意义吗?这是开展这项任务的好方法吗?

//cpu core 1
for (n=0; n < 8916100448256/4 ; ++n) {
    ...
GPUKernel1();
}

//cpu core 2
for (n=(8916100448256/4; n < (8916100448256/4)*2 ; ++n) {
   ...  
GPUKernel2();
}

//cpu core 3
for (n=(8916100448256/4)*2; n < (8916100448256/4)*3 ; ++n) {
   ...       
GPUKernel3();
}

//cpu core 4
for (n=(8916100448256/4)*3; n < 8916100448256) ; ++n) {
   ...      
GPUKernel4();
}

1 个答案:

答案 0 :(得分:1)

如果我错了,请纠正我,但这似乎是算法问题。 OpenCL无处可见。顺便说一句,当您在OpenCL / CUDA中编写内核代码时,分配给每个线程的数据将由该线程的线程ID确定,您可以按块等划分它们。请参阅编程指南(NVIDIA / AMD)。