我已经做了一些搜索,但找不到任何与我的问题相关的内容(抱歉,如果我的问题多余!)。无论如何,正如标题所述,我无法在代码的串行实现方面获得任何改进。我需要并行化的代码片段如下(这是带有OpenMP的Fortran90):
do n=1,lm
do m=1,jm
do l=1,im
sum_u = 0
sum_v = 0
sum_t = 0
do k=1,lm
!$omp parallel do reduction (+:sum_u,sum_v,sum_t)
do j=1,jm
do i=1,im
exp_smoother=exp(-(abs(i-l)/hzscl)-(abs(j-m)/hzscl)-(abs(k-n)/vscl))
sum_u = sum_u + u_p(i,j,k) * exp_smoother
sum_v = sum_v + v_p(i,j,k) * exp_smoother
sum_t = sum_t + t_p(i,j,k) * exp_smoother
sum_u_pert(l,m,n) = sum_u
sum_v_pert(l,m,n) = sum_v
sum_t_pert(l,m,n) = sum_t
end do
end do
end do
end do
end do
end do
我遇到了竞争条件问题吗?或者我只是把指令放在错误的地方?我对此很陌生,所以如果这是一个过于简单化的问题我会道歉。
无论如何,如果没有并行化,代码就会非常缓慢。为了解问题的大小,lm,jm和im索引分别为60,401和501。因此并行化至关重要。任何帮助或有用资源的链接将非常感谢!我正在使用xlf编译上面的代码,如果这有用的话。
谢谢! -Jen
答案 0 :(得分:3)
放置omp pragma的显而易见的地方是在外部循环。
对于每个(l,m,n),您正在计算扰动变量和指数平滑器之间的卷积。每个(l,m,n)计算完全独立于其他计算,因此您可以将它放在最外层循环上。所以最简单的事情就是
!$omp parallel do private(n,m,l,i,j,k,exp_smoother) shared(sum_u_pert,sum_v_pert,sum_t_pert,u_p,v_p,t_p), default(none)
do n=1,lm
do m=1,jm
do l=1,im
do k=1,lm
do j=1,jm
do i=1,im
exp_smoother=exp(-(abs(i-l)/hzscl)-(abs(j-m)/hzscl)-(abs(k-n)/vscl))
sum_u_pert(l,m,n) = sum_u_pert(l,m,n) + u_p(i,j,k) * exp_smoother
sum_v_pert(l,m,n) = sum_v_pert(l,m,n) + v_p(i,j,k) * exp_smoother
sum_t_pert(l,m,n) = sum_t_pert(l,m,n) + t_p(i,j,k) * exp_smoother
end do
end do
end do
end do
end do
end do
让我在8个核心上加速了6倍(使用大大减少的问题大小为20x41x41)。考虑到循环中的工作量,即使是较小的尺寸,我还是假设它不是8倍的加速,而是涉及内存争用或错误共享;为了进一步进行性能调优,您可能希望将sum数组显式地分解为每个线程的子块,并在最后组合它们;但根据问题的大小,相当于额外的im x jm x lm大小的数组可能并不理想。
在这个问题上似乎有很多结构你能够进行explot来加速甚至连续的情况,但是更容易说出来找到它;在笔和纸上玩耍几分钟就没有想到,但有些聪明的人可能会发现一些东西。
答案 1 :(得分:2)
你所拥有的是卷积。这可以在N log2(N)时间内通过快速傅里叶变换来完成。你的算法是N ^ 2。如果你使用FFT,一个核心就足够了!