#include <iostream>
#include <iomanip>
#include <fstream>
#include <sstream>
#include <string>
#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <omp.h>
using namespace std;
void output(float a[], float X[], float Y[], int I, int J)
{
ofstream ft;
int i;
ft.open("flow.dat");
ft<<"variables=\"x\",\"y\",\"a\""<<"\n"
<<"zone f=point"<<"\n"
<<"I="<<I<<",J="<<J<<"\n"
<<endl;
for(int i=0;i<I*J;i++)
{
ft<<setiosflags(ios::scientific)
<<X[i]<<" "<<Y[i]<<" "<<a[i]<<endl;
}
ft.close();
}
void set(float a[], float X[], float Y[], int I, int J, float hx, float hy)
{
for(int j=0;j<J;j++)
for(int i=0;i<I;i++)
{
int iC=j*I+i;
X[iC]=i*hx;
Y[iC]=j*hy;
a[iC]=0.0;
if(j==J-1) a[iC]=1.0;
}
}
void difference_serial(float a[], int I, int J, const float hx, const float hy)
{
const float aC=(hx*hx+hy*hy)*2;
const float aX=hy*hy;
const float aY=hx*hx;
for(int j=1;j<J-1;j++)
for(int i=1;i<I-1;i++)
{
int iC=j*I+i;
int iL=iC-1;
int iR=iC+1;
int iU=iC+I;
int iD=iC-I;
a[iC]=(aX*(a[iL]+a[iR])+aY*(a[iU]+a[iD]))/aC;
}
}
void difference_omp(float a[], int I, int J, const float hx, const float hy)
{
const float aC=(hx*hx+hy*hy)*2;
const float aX=hy*hy;
const float aY=hx*hx;
int i,j,iC,iL,iR,iU,iD;
#pragma omp parallel for private(i,j,iC,iL,iR,iU,iD) shared(a,I,J) schedule(dynamic)
for( j=1;j<J-1;j++)
for( i=1;i<I-1;i++)
{
iC=j*I+i;
iL=iC-1;
iR=iC+1;
iU=iC+I;
iD=iC-I;
a[iC]=(aX*(a[iL]+a[iR])+aY*(a[iU]+a[iD]))/aC;
}
}
int main()
{
const int I=129;
const int J=129;
const int N=I*J;
const float hx=1.0/(I-1);
const float hy=1.0/(J-1);
float *a=new float[N];
float *X=new float[N];
float *Y=new float[N];
//set the grid and flow
set(a,X,Y,I,J,hx,hy);
//iteation
clock_t start=clock();
for(int it=0;it<10000;it++)
difference_serial(a,I,J,hx,hy);
clock_t end=clock();
printf("Serial time=%f\n",(float)(end-start)/CLOCKS_PER_SEC);
set(a,X,Y,I,J,hx,hy);
clock_t start2=clock();
for(int it2=0;it2<10000;it2++)
difference_omp(a,I,J,hx,hy);
clock_t end2=clock();
printf("Omp time=%f\n",(float)(end2-start2)/CLOCKS_PER_SEC);
//output
output(a,X,Y,I,J);
//free memory
delete[] a;
delete[] X;
delete[] Y;
}
我写了一段代码来解决二维非常简单的拉普拉斯方程。尝试比较串行代码和OpenMP代码
我尝试使用编译代码 g ++ tmp.cpp -fopenmp
得到非常奇怪的结果 输出: 串行时间= 1.620000 Omp时间= 9.820000
是否有人可以帮我弄清楚这背后的原因以及如何纠正OpenMP代码。
答案 0 :(得分:7)
我遇到了有趣的结果。
luk32:~/projects/tests$ g++ -fopenmp -lgomp ./laplace.cpp
luk32:~/projects/tests$ ./a.out
Omp time=13.000000
Serial time=3.000000
luk32:~/projects/tests$ g++ -O3 -fopenmp -lgomp ./laplace.cpp
luk32:~/projects/tests$ ./a.out
Omp time=31.000000
Serial time=1.000000
因此,对于O3
,OpenMP的时间会变得更糟,而且对于串行版本来说也是如此。我猜测问题实例是如此之小,以至于调用并行区域的实际开销在这里显现出来。
您正试图在PC上并行化1.5s / 10k = 0.15毫秒的内容。初始化线程池和调度具有其开销,尤其是{{1 }}
我会尝试做一些测试来确认。不确定随机碰撞schedule(dynamic)
和I
是否合法。
测试后:
确定我已切换J
并设置J=I=10240;
。我还使用for(int it=0;it<50;it++)
进行时间测量。下面是完整的差异文件。
结果如下:
omp_get_wtime()
它是在6-phys / 12-logical核心机器上实现的。现在结果如预期。您的示例问题太小,Serial time=58.982189
Omp time=9.158118
无法提高效率,直到开销花费的时间比计算时间长。
差异:
OpenMP
编辑:我刚刚提出了主要问题,所以任何遇到此问题的人都会自动关注它。