刚开始使用OpenMP。我想知道是否可以在调用外部函数的for循环中运行OpenMP并行,这本身并不会调用任何其他函数。我已经提出了一些简化的代码来说明我的观点:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
w_wake[0] += w_ind[0];
w_wake[1] += w_ind[1];
w_wake[2] += w_ind[2];
}
我知道我需要在调用中添加更多内容,但这个openMp循环在技术上是否可行?
答案 0 :(得分:2)
您必须从不让不同的线程在没有正确同步的情况下编写相同的变量,以避免竞争条件。
在你的程序中,多个线程读取变量的相同值,然后每个线程为其添加另一个值,然后所有这些线程将结果写在同一位置,以便许多计算被覆盖,并且不会累加到最终结果。因此,您的计划计算的结果低于正确的值(顺便说一下,您应该准确说明您的计划结果与预期的结果不同)。
一种简单但效率低下的解决方法是使用原子添加:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++) {
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
#pragma omp atomic
w_wake[0] += w_ind[0];
#pragma omp atomic
w_wake[1] += w_ind[1];
#pragma omp atomic
w_wake[2] += w_ind[2];
}
并行求和的一种更有效的方法是让每个线程在私有变量中累积值(仅由该线程看到),从而获得部分和。
#pragma omp parallel
{
int wake0 = wake1 = wake2 = 0; // private variables
#pragma omp for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
// now we're out of the loop but still inside the parallel region
// so, let's add up the partial sums
#pragma omp atomic
w_wake[0] += wake0;
#pragma omp atomic
w_wake[1] += wake1;
#pragma omp atomic
w_wake[2] += wake2;
}
让OpenMP管理缩减操作通常会更好,但是如果你需要将结果存储在一个数组中,那么就可以更容易地自己这样做。
另一方面,如果你真的不需要数组,那么你可以简单地这样做:
int wake0 = wake1 = wake2 = 0; // SHARED variables this time
#pragma omp parallel for reduction(+ : wake0, wake1, wake2)
{
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
}