这是this one的后续问题 现在我有了代码:
#include <iostream>
#include <cmath>
#include <omp.h>
#define max(a, b) (a)>(b)?(a):(b)
const int m = 2001;
const int n = 2000;
const int p = 4;
double v[m + 2][m + 2];
double x[m + 2];
double y[m + 2];
double _new[m + 2][m + 2];
double maxdiffA[p + 1];
int icol, jrow;
int main() {
omp_set_num_threads(p);
double h = 1.0 / (n + 1);
double start = omp_get_wtime();
#pragma omp parallel for private(icol) shared(x, y, v, _new)
for (icol = 0; icol <= n + 1; ++icol) {
x[icol] = y[icol] = icol * h;
_new[icol][0] = v[icol][0] = 6 - 2 * x[icol];
_new[n + 1][icol] = v[n + 1][icol] = 4 - 2 * y[icol];
_new[icol][n + 1] = v[icol][n + 1] = 3 - x[icol];
_new[0][icol] = v[0][icol] = 6 - 3 * y[icol];
}
const double eps = 0.01;
#pragma omp parallel private(icol, jrow) shared(_new, v, maxdiffA)
{
while (true) { //for [iters=1 to maxiters by 2]
#pragma omp single
for (int i = 0; i < p; i++) maxdiffA[i] = 0;
#pragma omp for
for (icol = 1; icol <= n; icol++)
for (jrow = 1; jrow <= n; jrow++)
_new[icol][jrow] =
(v[icol - 1][jrow] + v[icol + 1][jrow] + v[icol][jrow - 1] + v[icol][jrow + 1]) / 4;
#pragma omp for
for (icol = 1; icol <= n; icol++)
for (jrow = 1; jrow <= n; jrow++)
v[icol][jrow] = (_new[icol - 1][jrow] + _new[icol + 1][jrow] + _new[icol][jrow - 1] +
_new[icol][jrow + 1]) / 4;
#pragma omp for
for (icol = 1; icol <= n; icol++)
for (jrow = 1; jrow <= n; jrow++)
maxdiffA[omp_get_thread_num()] = max(maxdiffA[omp_get_thread_num()],
fabs(_new[icol][jrow] - v[icol][jrow]));
#pragma omp barrier
double maxdiff = 0.0;
for (int k = 0; k < p; ++k) {
maxdiff = max(maxdiff, maxdiffA[k]);
}
if (maxdiff < eps)
break;
#pragma omp barrier
//#pragma omp single
//std::cout << maxdiff << std::endl;
}
}
double end = omp_get_wtime();
printf("start = %.16lf\nend = %.16lf\ndiff = %.16lf\n", start, end, end - start);
return 0;
}
但为什么它的工作速度比串行模拟慢2-3倍(32秒vs 18秒):
#include <iostream>
#include <cmath>
#include <omp.h>
#define max(a,b) (a)>(b)?(a):(b)
const int m = 2001;
const int n = 2000;
double v[m + 2][m + 2];
double x[m + 2];
double y[m + 2];
double _new[m + 2][m + 2];
int main() {
double h = 1.0 / (n + 1);
double start = omp_get_wtime();
for (int i = 0; i <= n + 1; ++i) {
x[i] = y[i] = i * h;
_new[i][0]=v[i][0] = 6 - 2 * x[i];
_new[n + 1][i]=v[n + 1][i] = 4 - 2 * y[i];
_new[i][n + 1]=v[i][n + 1] = 3 - x[i];
_new[0][i]=v[0][i] = 6 - 3 * y[i];
}
const double eps=0.01;
while(true){ //for [iters=1 to maxiters by 2]
double maxdiff=0.0;
for (int i=1;i<=n;i++)
for (int j=1;j<=n;j++)
_new[i][j]=(v[i-1][j]+v[i+1][j]+v[i][j-1]+v[i][j+1])/4;
for (int i=1;i<=n;i++)
for (int j=1;j<=n;j++)
v[i][j]=(_new[i-1][j]+_new[i+1][j]+_new[i][j-1]+_new[i][j+1])/4;
for (int i=1;i<=n;i++)
for (int j=1;j<=n;j++)
maxdiff=max(maxdiff, fabs(_new[i][j]-v[i][j]));
if(maxdiff<eps) break;
std::cout << maxdiff<<std::endl;
}
double end = omp_get_wtime();
printf("start = %.16lf\nend = %.16lf\ndiff = %.16lf\n", start, end, end - start);
return 0;
}
同样有趣的是它的SAME TIME作为版本(我可以在这里发布,如果你这么说)看起来像这样
while(true){ //106 iteratins here!!!
#pragma omp paralell for
for(...)
#pragma omp paralell for
for(...)
#pragma omp paralell for
for(...)
}
但我认为使omp代码变慢的原因是在循环中生成线程106次...但不是!然后可能线程同时写入相同的阵列单元..但它会在哪里发生?我不认为你能告诉我吗? 也许是因为太多的障碍?但是Lecturer告诉我实现这样的代码并“分析它”也许答案是“Jacobi算法并不意味着并行运行”?或者只是我的蹩脚编码?
答案 0 :(得分:0)
所以evel的根源是
max(maxdiffA[w],fabs(_new[icol][jrow] - v[icol][jrow]))
因为它是
#define max(a, b) (a)>(b)?(a):(b)
它可能会创建太多分支('if')如果没有这个东西,并行版本的工作速度提高了8倍,加载CPU为68%而不是99%。 奇怪的是:同样的“max”不会影响严重版本
答案 1 :(得分:-2)
我写信是为了让你了解一些情况。写评论并不缺乏,所以我决定写一个答案。
每次创建一个线程时,创建它需要一些时间。如果您的程序在单个核心中的运行时间很短,那么线程的创建将使多核的时间更长。
加上使用屏障会使所有线程等待其他线程,这可能会以某种方式在cpu中减慢。这样,即使所有线程都以非常快的速度完成作业,最后一个线程也会使总运行时间更长。
尝试使用更大尺寸的阵列运行程序,其中单线程的时间约为2分钟。然后走向多核心。
然后尝试将主代码包装在正常循环中以运行几次并打印每个代码的时间。由于加载库,循环的第一次运行可能会很慢,但是下一次运行应该更快以证明增加的速度。
如果以上建议没有给出结果,则表示您的编码需要更多编辑。
编辑: 对于downvoters,如果你不喜欢帖子,请至少礼貌并发表评论。或者更好,给出自己的答案,这对社区有帮助。