我只是在努力学习并行计算。如果有一个看起来像这样的东西,
long A[12];
long B[5,000,000];
long C[12];
long long total=0;
long long tmp;
GPUKernel(){
for (n=0; n < 5,000,000; ++n) {
B[n]=0;
}
for (n=0; n < 5,000,000; ++n) {
for (n2=0; n2 < 12; ++n2) {
B[n]+=C[A[n2]];
}
tmp+=B[n];
}
if (tmp > total) {
total=tmp;
tmp=0;
}
}
int main(){
srand( (unsigned)time( NULL ) );
for (n=0; n < 12; ++n) {
C[n]=rand() % 1000000;
}
for (n=0 ; n < 8916100448256 ; ++n) {
++A[0];
for (p=0; n<11; ++p) {
if (A[p]==12) {
A[p]=0;
++A[p+1];
}
}
GPUKernel();
}
return 0;
}
我的想法是,我将获得CPU可以使用的线程数。例如,如果有4个,那么我将为每个cpu线程制作所有数据的单独副本。所以每个gpu内核也会拥有自己的数据。这有意义吗?这是开展这项任务的好方法吗?
//cpu core 1
for (n=0; n < 8916100448256/4 ; ++n) {
...
GPUKernel1();
}
//cpu core 2
for (n=(8916100448256/4; n < (8916100448256/4)*2 ; ++n) {
...
GPUKernel2();
}
//cpu core 3
for (n=(8916100448256/4)*2; n < (8916100448256/4)*3 ; ++n) {
...
GPUKernel3();
}
//cpu core 4
for (n=(8916100448256/4)*3; n < 8916100448256) ; ++n) {
...
GPUKernel4();
}
答案 0 :(得分:1)
如果我错了,请纠正我,但这似乎是算法问题。 OpenCL无处可见。顺便说一句,当您在OpenCL / CUDA中编写内核代码时,分配给每个线程的数据将由该线程的线程ID确定,您可以按块等划分它们。请参阅编程指南(NVIDIA / AMD)。