带MPI的2D FFTW太慢

时间:2018-12-07 01:34:45

标签: fortran mpi fft fftw

我想用MPI进行2D FFTW。我只是按照上一篇文章How to do a fftw3 MPI "transposed" 2D transform if possible at all?的答案中显示的代码进行操作。

但是,性能确实很差。实际上,使用2个处理器的执行要比使用1个处理器的执行慢。 怎么了?

program trashingfftw
  use, intrinsic :: iso_c_binding
  use MPI

  implicit none
  include 'fftw3-mpi.f03'

  integer(C_INTPTR_T), parameter :: L = 256
  integer(C_INTPTR_T), parameter :: M = 256

  type(C_PTR) :: plan, ctgt, csrc

  complex(C_DOUBLE_COMPLEX), pointer :: src(:,:)
  real(8), pointer :: tgt(:,:)

  integer(C_INTPTR_T) :: alloc_local, local_M, &
                         & local_L,local_offset1,local_offset2

  integer :: ierr,id


  call mpi_init(ierr)

  call mpi_comm_rank(MPI_COMM_WORLD,id,ierr)

  call fftw_mpi_init()


  alloc_local = fftw_mpi_local_size_2d(M,L/2+1, MPI_COMM_WORLD, &
       local_M, local_offset1)

  csrc = fftw_alloc_complex(alloc_local)
  call c_f_pointer(csrc, src, [L/2,local_M])


  alloc_local = fftw_mpi_local_size_2d(2*(L/2+1),M, MPI_COMM_WORLD, &
       &                               local_L, local_offset2)

  ctgt = fftw_alloc_real(alloc_local)
  call c_f_pointer(ctgt, tgt, [M,local_L])

  plan =  fftw_mpi_plan_dft_c2r_2d(M,L,src,tgt, MPI_COMM_WORLD, & 
       ior(FFTW_MEASURE, FFTW_MPI_TRANSPOSED_OUT))

  call fftw_mpi_execute_dft_c2r(plan, src, tgt)

  call mpi_finalize(ierr)


end program trashingfftw

1 个答案:

答案 0 :(得分:1)

请注意,计划创建通常比FFT本身花费更长的时间,特别是如果您使用FFTW_MEASURE或更长的时间。

理想情况下,您只需创建一次计划,然后使用同一计划运行多个FFT。

对于基准测试,您应该只测量FFT时间,而不是计划创建时间