关于OpenMP和-Ofast的组合

时间:2017-04-05 19:32:40

标签: c optimization openmp

我在for循环中实现了 OpenMP并行化,其中我有一个 sum ,这是减慢我的代码速度的主要原因。当我这样做时,我发现最终结果与我为非并行化代码(用C编写)获得的结果不一样。首先,人们可能会想到,嗯,我只是没有很好地实现并行化"但奇怪的是,当我使用 -Ofast 优化运行并行化代码时,结果是正确的。

那将是:

  • -O0正确
  • - 正确
  • OMP -O0错误
  • OMP -O1错误
  • OMP -O2错误
  • OMP -O3错误
  • OMP -Ofast correct!

什么可以-Ofast可以解决只在我实现openmp时出现的错误? 我可以检查或测试什么的建议? 谢谢!

修改 在这里,我包含了仍然可以重现问题的最小版本的代码。

#include <stdlib.h>
#include <stdio.h>
#include <math.h>
#include <gsl/gsl_rng.h>
#include <gsl/gsl_randist.h>

#define LENGTH 100
#define R 50.0
#define URD 1.0/sqrt(2.0)
#define PI (4.0*atan(1.0)) //pi

const gsl_rng_type * Type;
gsl_rng * item;

double CalcDeltaEnergy(double **M,int sx,int sy){
    double DEnergy,r,zz;
    int k,j;
    double rrx,rry;
    int rx,ry;
    double Energy, Cpm, Cmm, Cmp, Cpp;
    DEnergy = 0;

    //OpenMP parallelization:
    #pragma omp parallel for reduction (+:DEnergy)
    for (int index = 0; index < LENGTH*LENGTH; index++){
        k = index % LENGTH;
        j = index / LENGTH;

    zz = 0.5*(1.0 - pow(-1.0, k + j + sx + sy));
    for (rx = -1; rx <= 1; rx++){
        for (ry = -1; ry <= 1; ry++){
            rrx = (sx - k - rx*LENGTH)*URD;
            rry = (sy - j - ry*LENGTH)*URD;

            r = sqrt(rrx*rrx + rry*rry + zz);
            if(r != 0 && r <= R){
                Cpm = sqrt((rrx+0.5*(0.702*cos(M[k][j])-0.702*cos(M[sx][sy])))*(rrx+0.5*(0.702*cos(M[k][j])-0.702*cos(M[sx][sy]))) + (rry+0.5*(0.702*sin(M[k][j])-0.702*sin(M[sx][sy])))*(rry+0.5*(0.702*sin(M[k][j])-0.702*sin(M[sx][sy]))) + zz);
                Cmm = sqrt((rrx-0.5*(0.702*cos(M[k][j])-0.702*cos(M[sx][sy])))*(rrx-0.5*(0.702*cos(M[k][j])-0.702*cos(M[sx][sy]))) + (rry-0.5*(0.702*sin(M[k][j])-0.702*sin(M[sx][sy])))*(rry-0.5*(0.702*sin(M[k][j])-0.702*sin(M[sx][sy]))) + zz);
                Cpp = sqrt((rrx+0.5*(0.702*cos(M[k][j])+0.702*cos(M[sx][sy])))*(rrx+0.5*(0.702*cos(M[k][j])+0.702*cos(M[sx][sy]))) + (rry+0.5*(0.702*sin(M[k][j])+0.702*sin(M[sx][sy])))*(rry+0.5*(0.702*sin(M[k][j])+0.702*sin(M[sx][sy]))) + zz);
                Cmp = sqrt((rrx-0.5*(0.702*cos(M[k][j])+0.702*cos(M[sx][sy])))*(rrx-0.5*(0.702*cos(M[k][j])+0.702*cos(M[sx][sy]))) + (rry-0.5*(0.702*sin(M[k][j])+0.702*sin(M[sx][sy])))*(rry-0.5*(0.702*sin(M[k][j])+0.702*sin(M[sx][sy]))) + zz);
                Cpm = 1.0/Cpm;
                Cmm = 1.0/Cmm;
                Cpp = 1.0/Cpp;
                Cmp = 1.0/Cmp;
                Energy = (Cpm + Cmm - Cpp - Cmp)/(0.702*0.702); // S=cte=1

                DEnergy -= 2.0*Energy;
            }
        }
    }
    }
return DEnergy;
}

void Initialize(double **M){
double random;
    for(int i=0;i<(LENGTH-1);i=i+2){
          for(int j=0;j<(LENGTH-1);j=j+2) {
              random=gsl_rng_uniform(item);
              if (random<0.5) M[i][j]=PI/4.0;
              else M[i][j]=5.0*PI/4.0;

              random=gsl_rng_uniform(item);
              if (random<0.5) M[i][j+1]=3.0*PI/4.0;
              else M[i][j+1]=7.0*PI/4.0;

              random=gsl_rng_uniform(item);
              if (random<0.5) M[i+1][j]=3.0*PI/4.0;
              else M[i+1][j]=7.0*PI/4.0;

              random=gsl_rng_uniform(item);
              if (random<0.5) M[i+1][j+1]=PI/4.0;
              else M[i+1][j+1]=5.0*PI/4.0;
          }
    }
}

int main(){
    //Choose and initiaze the random number generator
    gsl_rng_env_setup();
    Type = gsl_rng_default; //default=mt19937, ran2, lxs0
    item = gsl_rng_alloc (Type);

    double **S; //site matrix
    S = (double **) malloc(LENGTH*sizeof(double *));
    for (int i = 0; i < LENGTH; i++)
        S[i] = (double *) malloc(LENGTH*sizeof(double ));

    //Initialization
    Initialize(S);

    int l,m;
    for (int cl = 0; cl < LENGTH*LENGTH; cl++) {
        l = gsl_rng_uniform_int(item, LENGTH); // RNG[0, LENGTH-1]
        m = gsl_rng_uniform_int(item, LENGTH); // RNG[0, LENGTH-1]
        printf("%lf\n", CalcDeltaEnergy(S, l, m));
    }


    //Free memory
    for (int i = 0; i < LENGTH; i++)
        free(S[i]);
    free(S);
    return 0;
} 

我编译:

g++ [optimization] -lm test.c -o test.x -lgsl -lgslcblas -fopenmp

并运行:

GSL_RNG_SEED=123; ./test.x > test.dat

比较不同优化的输出,可以看出我之前说过的内容。

1 个答案:

答案 0 :(得分:2)

免责声明:我对OpenMP几乎没有经验

这可能是您在使用OpenMP时遇到的竞争条件。

您需要将OpenMP循环中的所有变量声明为 private 。一个核心可以计算某个值index的值,这些值会立即重新计算为使用另一个index值的核心上的不同值:k,{{j 1}},rrxrry等在计算节点之间共享。

而不是使用像

这样的编译语
#pragma omp parallel for private(k,j,zz,rx,ry,rrx,rry,r,Cpm,Cmm,Cpp,Cmp,Energy) reduction (+:D\

(以下由Zulan发表评论)你也可以尽可能在本地声明并行区域内的变量。这使得它们隐式私有,不易出现初始化问题,更容易推理。

(您甚至可以考虑在函数中将所有内容放在外部for循环中(超过index):与计算相比,函数调用开销最小。)

至于为什么-Ofast与OpenMP一起确实产生了正确的输出。

我的猜测是:大多数运气。这是-Ofast的作用(gcc手册):

  

无视严格的标准合规性。 -Ofast启用所有-O3优化。它还支持对所有符合标准的程序无效的优化。它打开-ffast-math [...]

以下是关于-ffast-math的部分:

  

除了-Ofast之外,任何-O选项都不会打开此选项,因为它可能导致依赖于数学函数的IEEE或ISO规则/规范的精确实现的程序的输出不正确。但是,对于不需要保证这些规范的程序,它可能会产生更快的代码。

因此,sqrtcossin可能会更快。我的猜测是,在这种情况下,外部循环内部变量的计算不会相互咬合,因为各个线程非常快,它们不会发生冲突。但这是一个非常谨慎的解释和猜测。