我有以下代码:
#pragma omp parallel shared(a,n) private(i,j,k,x,pid,rows,mymin,mymax)
{
// nprocs=1;
#ifdef _OPENMP
nprocs=omp_get_num_threads();
#endif
#ifdef _OPENMP
pid=omp_get_thread_num();
#endif
rows=n/nprocs;
mymin=pid * rows;
mymax=mymin + rows - 1;
for(k=0;k<n;k++){
if(k>=mymin && k<=mymax){
#pragma omp for schedule(static,rows)
for(x=k+1;x<n;x++){
a[k][x]= a[k][x]/a[k][k];
}
#pragma omp barrier
}
}
}
这里我选择哪个线程将根据if条件更新哪一行矩阵。例如,如果有两个线程,则线程1将更新前两行矩阵'a',线程2将更新另外两个。
在我选择之后,我通过并行线程1和2之间的内部循环(我开始for(x=k+1,x<n;x++)
)来划分该行的列上的迭代。我也在内部for循环之后放置一个屏障,以便在更新单行的每个列值之后,将其同步。
但问题是我没有获得正确的同步值。在最终矩阵中,线程0更新的某些值在某些行中显示,而某些值由其他线程显示但不是全部。
答案 0 :(得分:1)
这里使用omp barrier
是没用的,因为除非指定了omp for
子句,否则在nowait
构造的末尾有一个隐式屏障。
另一方面,您不需要手动指定如何将工作分解为线程,并且分解方式不正确。
您实际上要做的事情可以写成如下。
#pragma omp parallel for shared(a,n) private(k,x)
for(k=0;k<n;k++){
for(x=k+1;x<n;x++){
a[k][x]= a[k][x]/a[k][k];
}
}
由于不同k
之间的工作量不均衡,您可能也想使用schedule(dynamic, ...)
子句。有关更多信息,请参阅omp doc。