使用openmp的特征c ++并行化Jacobi算法

时间:2016-10-05 17:31:45

标签: c++ algorithm parallel-processing openmp eigen

我已经基于“数字食谱”一书中描述的例程实现了Jacobi算法,但由于我计划使用非常大的矩阵,我试图使用openmp并行化它。

void ROTATE(MatrixXd &a, int i, int j, int k, int l, double s, double tau)
{
double g,h;
g=a(i,j);
h=a(k,l);
a(i,j)=g-s*(h+g*tau);
a(k,l)=h+s*(g-h*tau);

}

void jacobi(int n, MatrixXd &a, MatrixXd &v, VectorXd &d )
{
int j,iq,ip,i;
double tresh,theta,tau,t,sm,s,h,g,c;

VectorXd b(n);
VectorXd z(n);

v.setIdentity();    
z.setZero();

#pragma omp parallel for 
for (ip=0;ip<n;ip++)
{   
    d(ip)=a(ip,ip);
    b(ip)=d(ip);
}

for (i=0;i<50;i++) 
{
    sm=0.0;
    for (ip=0;ip<n-1;ip++) 
    {
        #pragma omp parallel for reduction (+:sm)
        for (iq=ip+1;iq<n;iq++)
            sm += fabs(a(ip,iq));
    }
    if (sm == 0.0) {
        break;
    }

    if (i < 3)
    tresh=0.2*sm/(n*n); 
    else
    tresh=0.0;  

    #pragma omp parallel for private (ip,g,h,t,theta,c,s,tau)
    for (ip=0;ip<n-1;ip++)
    {
    //#pragma omp parallel for private (g,h,t,theta,c,s,tau)
        for (iq=ip+1;iq<n;iq++)
        {
            g=100.0*fabs(a(ip,iq));
            if (i > 3 && (fabs(d(ip))+g) == fabs(d[ip]) && (fabs(d[iq])+g) == fabs(d[iq]))
            a(ip,iq)=0.0;
            else if (fabs(a(ip,iq)) > tresh)
            {
                h=d(iq)-d(ip);
                if ((fabs(h)+g) == fabs(h))
                {
                    t=(a(ip,iq))/h;
                }   
                else 
                {
                    theta=0.5*h/(a(ip,iq));
                    t=1.0/(fabs(theta)+sqrt(1.0+theta*theta));
                    if (theta < 0.0)
                    {
                        t = -t;
                    }
                    c=1.0/sqrt(1+t*t);
                    s=t*c;
                    tau=s/(1.0+c);
                    h=t*a(ip,iq);

                   #pragma omp critical
                    {
                    z(ip)=z(ip)-h;
                    z(iq)=z(iq)+h;
                    d(ip)=d(ip)-h;
                    d(iq)=d(iq)+h;
                    a(ip,iq)=0.0;


                    for (j=0;j<ip;j++)
                        ROTATE(a,j,ip,j,iq,s,tau);
                    for (j=ip+1;j<iq;j++)
                        ROTATE(a,ip,j,j,iq,s,tau);
                    for (j=iq+1;j<n;j++)
                        ROTATE(a,ip,j,iq,j,s,tau);
                    for (j=0;j<n;j++)
                        ROTATE(v,j,ip,j,iq,s,tau);
                    }

                }
            } 
        }
    }


}

}

我希望并行执行大部分计算的循环以及代码中插入的两个注释:

 //#pragma omp parallel for private (ip,g,h,t,theta,c,s,tau)
 //#pragma omp parallel for private (g,h,t,theta,c,s,tau)

是我的尝试。不幸的是,它们最终都会产生不正确的结果。我怀疑这个问题可能存在于此块中:

z(ip)=z(ip)-h;
z(iq)=z(iq)+h;
d(ip)=d(ip)-h;
d(iq)=d(iq)+h;

因为通常这种积累需要减少,但由于每个线程访问数组的不同部分,我不确定。

我不确定我是否正在以正确的方式进行并行化,因为我最近才开始使用openmp,因此任何建议或建议也会受到欢迎。

旁注:我知道有更快的特征值和特征向量确定算法,包括特征中的SelfAdjointEigenSolver,但那些并没有给出我在特征向量中需要的精度,而且这个算法是。

我提前感谢。

编辑:我认为正确答案是量子物理学家提供的答案,因为我所做的并没有减少系统大小达到4096x4096的计算时间。在任何情况下,我都纠正了代码,以使其工作,也许对于足够大的系统,它可能是有用的。我建议使用计时器测试是否

#pragma omp for

实际上减少了计算时间。

1 个答案:

答案 0 :(得分:0)

我会尽力帮助,但我不确定这是你问题的答案。

您的代码存在大量问题。我对你的友好建议是:如果你不理解你正在做的事情的影响,不要做平行的事情。

出于某种原因,您认为将所有内容并行#pragma for看起来会更快。这是非常错误的。因为产生线程是一件昂贵的事情,并且(相对)花费大量内存和时间。因此,如果你为每个循环重做#pragma for,你将为每个循环重新生成线程,这将显着降低程序的速度......除非:你的矩阵非常庞大,计算时间是&gt;&gt; ;而不是产生它们的成本。

当我想要在元素方面乘以巨大的矩阵时,我陷入了类似的问题(然后我需要量子力学中某些期望值的总和)。为了使用OpenMP,我不得不将矩阵展平为线性数组,然后将每个数组块分配给一个线程,然后运行for循环,其中每个循环迭代都使用独立于其他元素的元素,我使他们都独立进化。这很快。为什么?因为我从来没有两次重生线程。

为什么你的结果会出错?我相信原因是因为你不尊重共享内存规则。您有某些变量,这些变量同时被多个线程修改。它隐藏在某个地方,你必须找到它!例如,函数z做了什么?是否需要参考?我在这看到的内容:

z(ip)=z(ip)-h;
z(iq)=z(iq)+h;
d(ip)=d(ip)-h;
d(iq)=d(iq)+h;

看起来非常多线程不安全,我不明白你在做什么。您是否返回了必须修改的引用?这是线程不安全的配方。为什么不创建干净的数组并处理它们呢?

如何调试:从一个小例子(可能是2x2矩阵)开始,并且只使用2个线程,并尝试了解正在发生的事情。使用调试器并定义断点,并检查线程之间共享的信息。

还要考虑使用互斥锁来检查哪些数据在共享时会被破坏。 Here是如何做到的。

我的建议:除非您计划仅生成线程,否则不要使用OpenMP。我实际上认为,由于C ++ 11,OpenMP很快就会死掉。当C ++没有任何本机多线程实现时,OpenMP很漂亮。因此,学习如何使用std::thread并使用它,如果您需要在线程中运行许多东西,那么学习如何使用std::thread创建一个线程池。 This是学习多线程的好书。