我正在使用c ++为autodesk maya 2013构建一个插件。我必须尽快解决一组优化问题。我正在使用open MP执行此任务。问题是我对并行计算没有太多经验。我试着用:
#pragma omp parallel for schedule (static)
在我的for循环上(没有充分理解它应该如何工作)并且它对我的一些代码工作得非常好,但是我的代码的另一部分崩溃了。
以下是因omp指令崩溃的函数示例:
void PlanarizationConstraint::fillSparseMatrix(const Optimizer& opt, vector<T>& elements, double mu)
{
int size = 3;
#pragma omp parallel for schedule (static)
for(int i = 0; i < opt.FVIc.outerSize(); i++)
{
int index = 3*i;
Eigen::Matrix<double,3,3> Qxyz = Eigen::Matrix<double,3,3>::Zero();
for(SpMat::InnerIterator it(opt.FVIc,i); it; ++it)
{
int face = it.row();
for(int n = 0; n < size; n++)
{
Qxyz.row(n) += N(face,n)*N.row(face);
elements.push_back(T(index+n,offset+face,(1 - mu)*N(face,n)));
}
}
for(int n = 0; n < size; n++)
{
for(int k = 0; k < size; k++)
{
elements.push_back(T(index+n,index+k,(1-mu)*Qxyz(n,k)));
}
}
}
#pragma omp parallel for schedule (static)
for(int j = 0; j < opt.VFIc.outerSize(); j++)
{
elements.push_back(T(offset+j,offset+j,opt.fvi[j]));
for(SpMat::InnerIterator it(opt.VFIc,j); it; ++it)
{
int index = 3*it.row();
for(int n = 0; n < size; n++)
{
elements.push_back(T(offset+j,index+n,N(j,n)));
}
}
}
}
以下是一个与这些指令配合得很好的代码示例(由于它而更快)
Eigen::MatrixXd Optimizer::OptimizeLLGeneral()
{
ConstraintsManager manager;
SurfaceConstraint surface(1,true);
PlanarizationConstraint planarization(1,true,3^Nv,Nf);
manager.addConstraint(&surface);
manager.addConstraint(&planarization);
double mu = mu0;
for(int k = 0; k < iterations; k++)
{
#pragma omp parallel for schedule (static)
for(int j = 0; j < VFIc.outerSize(); j++)
{
manager.calcVariableMatrix(*this,j);
}
#pragma omp parallel for schedule (static)
for(int i = 0; i < FVIc.outerSize(); i++)
{
Eigen::MatrixXd A = Eigen::Matrix<double, 3, 3>::Zero();
Eigen::MatrixXd b = Eigen::Matrix<double, 1, 3>::Zero();
manager.addLocalMatrixComponent(*this,i,A,b,mu);
Eigen::VectorXd temp = b.transpose();
Q.row(i) = A.colPivHouseholderQr().solve(temp);
}
mu = r*mu;
}
return Q;
}
我的问题是,使用omp指令使一个函数运行得如此之好以及另一个函数崩溃的原因是什么? omp指令的行为有何不同?
答案 0 :(得分:3)
在使用openmp之前,您将一些数据逐个推回到向量elements
。但是,使用openmp,将有几个线程并行运行for循环中的代码。当多个线程同时将数据推回到向量elements
时,并且当没有代码确保一个线程在另一个线程完成之前不会开始推送时,问题就会发生。这就是你的代码崩溃的原因。
要解决此问题,您可以使用本地buff向量。每个线程首先将数据推送到其私有本地缓冲区向量,然后您可以将这些缓冲区向量连接在一起成为单个向量。
您会注意到此方法无法维护向量elements
中数据元素的原始顺序。如果你想这样做,你可以计算数据元素的每个预期索引,并直接将数据分配到正确的位置。
OpenMP提供的API可以让您知道您使用了多少线程以及您正在使用哪个线程。有关详细信息,请参阅omp_get_max_threads()
和omp_get_thread_num()
。