我已经基于“数字食谱”一书中描述的例程实现了Jacobi算法,但由于我计划使用非常大的矩阵,我试图使用openmp并行化它。
void ROTATE(MatrixXd &a, int i, int j, int k, int l, double s, double tau)
{
double g,h;
g=a(i,j);
h=a(k,l);
a(i,j)=g-s*(h+g*tau);
a(k,l)=h+s*(g-h*tau);
}
void jacobi(int n, MatrixXd &a, MatrixXd &v, VectorXd &d )
{
int j,iq,ip,i;
double tresh,theta,tau,t,sm,s,h,g,c;
VectorXd b(n);
VectorXd z(n);
v.setIdentity();
z.setZero();
#pragma omp parallel for
for (ip=0;ip<n;ip++)
{
d(ip)=a(ip,ip);
b(ip)=d(ip);
}
for (i=0;i<50;i++)
{
sm=0.0;
for (ip=0;ip<n-1;ip++)
{
#pragma omp parallel for reduction (+:sm)
for (iq=ip+1;iq<n;iq++)
sm += fabs(a(ip,iq));
}
if (sm == 0.0) {
break;
}
if (i < 3)
tresh=0.2*sm/(n*n);
else
tresh=0.0;
#pragma omp parallel for private (ip,g,h,t,theta,c,s,tau)
for (ip=0;ip<n-1;ip++)
{
//#pragma omp parallel for private (g,h,t,theta,c,s,tau)
for (iq=ip+1;iq<n;iq++)
{
g=100.0*fabs(a(ip,iq));
if (i > 3 && (fabs(d(ip))+g) == fabs(d[ip]) && (fabs(d[iq])+g) == fabs(d[iq]))
a(ip,iq)=0.0;
else if (fabs(a(ip,iq)) > tresh)
{
h=d(iq)-d(ip);
if ((fabs(h)+g) == fabs(h))
{
t=(a(ip,iq))/h;
}
else
{
theta=0.5*h/(a(ip,iq));
t=1.0/(fabs(theta)+sqrt(1.0+theta*theta));
if (theta < 0.0)
{
t = -t;
}
c=1.0/sqrt(1+t*t);
s=t*c;
tau=s/(1.0+c);
h=t*a(ip,iq);
#pragma omp critical
{
z(ip)=z(ip)-h;
z(iq)=z(iq)+h;
d(ip)=d(ip)-h;
d(iq)=d(iq)+h;
a(ip,iq)=0.0;
for (j=0;j<ip;j++)
ROTATE(a,j,ip,j,iq,s,tau);
for (j=ip+1;j<iq;j++)
ROTATE(a,ip,j,j,iq,s,tau);
for (j=iq+1;j<n;j++)
ROTATE(a,ip,j,iq,j,s,tau);
for (j=0;j<n;j++)
ROTATE(v,j,ip,j,iq,s,tau);
}
}
}
}
}
}
}
我希望并行执行大部分计算的循环以及代码中插入的两个注释:
//#pragma omp parallel for private (ip,g,h,t,theta,c,s,tau)
//#pragma omp parallel for private (g,h,t,theta,c,s,tau)
是我的尝试。不幸的是,它们最终都会产生不正确的结果。我怀疑这个问题可能存在于此块中:
z(ip)=z(ip)-h;
z(iq)=z(iq)+h;
d(ip)=d(ip)-h;
d(iq)=d(iq)+h;
因为通常这种积累需要减少,但由于每个线程访问数组的不同部分,我不确定。
我不确定我是否正在以正确的方式进行并行化,因为我最近才开始使用openmp,因此任何建议或建议也会受到欢迎。
旁注:我知道有更快的特征值和特征向量确定算法,包括特征中的SelfAdjointEigenSolver,但那些并没有给出我在特征向量中需要的精度,而且这个算法是。
我提前感谢。
编辑:我认为正确答案是量子物理学家提供的答案,因为我所做的并没有减少系统大小达到4096x4096的计算时间。在任何情况下,我都纠正了代码,以使其工作,也许对于足够大的系统,它可能是有用的。我建议使用计时器测试是否
#pragma omp for
实际上减少了计算时间。
答案 0 :(得分:0)
我会尽力帮助,但我不确定这是你问题的答案。
您的代码存在大量问题。我对你的友好建议是:如果你不理解你正在做的事情的影响,不要做平行的事情。
出于某种原因,您认为将所有内容并行#pragma for
看起来会更快。这是非常错误的。因为产生线程是一件昂贵的事情,并且(相对)花费大量内存和时间。因此,如果你为每个循环重做#pragma for
,你将为每个循环重新生成线程,这将显着降低程序的速度......除非:你的矩阵非常庞大,计算时间是&gt;&gt; ;而不是产生它们的成本。
当我想要在元素方面乘以巨大的矩阵时,我陷入了类似的问题(然后我需要量子力学中某些期望值的总和)。为了使用OpenMP,我不得不将矩阵展平为线性数组,然后将每个数组块分配给一个线程,然后运行for循环,其中每个循环迭代都使用独立于其他元素的元素,我使他们都独立进化。这很快。为什么?因为我从来没有两次重生线程。
为什么你的结果会出错?我相信原因是因为你不尊重共享内存规则。您有某些变量,这些变量同时被多个线程修改。它隐藏在某个地方,你必须找到它!例如,函数z
做了什么?是否需要参考?我在这看到的内容:
z(ip)=z(ip)-h;
z(iq)=z(iq)+h;
d(ip)=d(ip)-h;
d(iq)=d(iq)+h;
看起来非常多线程不安全,我不明白你在做什么。您是否返回了必须修改的引用?这是线程不安全的配方。为什么不创建干净的数组并处理它们呢?
如何调试:从一个小例子(可能是2x2矩阵)开始,并且只使用2个线程,并尝试了解正在发生的事情。使用调试器并定义断点,并检查线程之间共享的信息。
还要考虑使用互斥锁来检查哪些数据在共享时会被破坏。 Here是如何做到的。
我的建议:除非您计划仅生成线程,否则不要使用OpenMP。我实际上认为,由于C ++ 11,OpenMP很快就会死掉。当C ++没有任何本机多线程实现时,OpenMP很漂亮。因此,学习如何使用std::thread
并使用它,如果您需要在线程中运行许多东西,那么学习如何使用std::thread
创建一个线程池。 This是学习多线程的好书。