运行openmpi时的Segfault

时间:2012-06-19 15:58:05

标签: c segmentation-fault openmpi

我目前正在开发一个项目,我需要使用openmpi实现并行fft算法。我有一段编译代码,但是当我在集群上运行它时会出现分段错误。

我对于出错的地方有所了解,但我认为我对指针和参考资料的理解不足以能够进行有效的修复。

可能出错的第一个块是将数组传递给辅助函数。我相信我的循环不一致,或者我不理解如何传递这些指针并找回我需要的东西。

第二个可能的位置是在实际的mpi_Send / Recv命令中。我发送的是openmpi c数据类型不支持的类型,所以我使用mpi_byte类型来发送原始数据。这是一个可行的选择吗?或者我应该研究这种方法的替代方案。

/* function declarations */
double complex get_block(double complex c[], int start, int stop);

double complex put_block(double complex from[], double complex to[], 
            int start, int stop);

void main(int argc, char **argv)
{
  /* Initialize MPI */
  MPI_Init(&argc, &argv);

  double complex c[N/p];
  int myid;
  MPI_Comm_rank(MPI_COMM_WORLD, &myid);
  //printf("My id is %d\n",myid);

  MPI_Status status;

  int i;
  for(i=0;i<N/p;i++){
    c[i] = 1.0 + 1.0*I;
  }

  int j = log(p)/log(2) + 1;
  double q;
  double complex z;
  double complex w = exp(-2*PI*I/N);
  double complex block[N/(2*p)]; // half the size of chunk c
  int e,l,t,k,m,rank,plus,minus;
  int temp = (log(N)-log(p))/log(2);
  //printf("temp = %d", temp);

  for(e = 0; e < (log(p)/log(2)); e++){
    /* loop constants */
    t = pow(2,e); l = pow(2,e+temp);
    q = n/2*l; z = cpow(w,(complex)q); 
    j = j-1; int v = pow(2,j);

    if(e != 0){
      plus = (myid + p/v)%p;
      minus = (myid - p/v)%p;
    } else {
      plus = myid + p/v;
      minus = myid - p/v;
    }

    if(myid%t == myid%(2*t)){
      MPI_Recv((char*)&c, 
           sizeof(c),
           MPI_BYTE,
           plus,
           MPI_ANY_TAG,
           MPI_COMM_WORLD,
           &status);

      /* transform */
      for(k = 0; k < N/p; k++){
    m = (myid * N/p + k)%l;
    c[k] = c[k] + c[k+N/v] * cpow(z,m);
    c[k+N/v] = c[k] - c[k + N/v] * cpow(z,m); 
    printf("(k,k+N/v) = (%d,%d)\n",k,k+N/v);
    }*/
      printf("\n\n");
      /* end transform */

      *block = get_block(c, N/v, N/v + N/p + 1);
      MPI_Send((char*)&block,
           sizeof(block),
           MPI_BYTE, 
           plus,
           1, 
           MPI_COMM_WORLD);
    } else {
      // send data of this PE to the (i- p/v)th PE
      MPI_Send((char*)&c,
           sizeof(c),
           MPI_BYTE,
           minus,
           1, 
           MPI_COMM_WORLD);
      // after the transformation, receive data from (i-p/v)th PE
      //      and store them in c:
      MPI_Recv((char*)&block,
           sizeof(block),
           MPI_BYTE,
           minus, 
           MPI_ANY_TAG, 
           MPI_COMM_WORLD,
              &status);

      *c = put_block(block, c, N/v, N/v + N/p - 1);
      //printf("Process %d send/receive %d\n",myid, plus);
    }
  }
  /* shut down MPI */
  MPI_Finalize();
}

/* helper functions */
double complex get_block(double complex *c, int start, int stop)
{
  double complex block[stop - start + 1];
  //printf("%d = %d\n",sizeof(block)/sizeof(double complex), sizeof(&c)/sizeof(double  complex));
  int j = 0;
  int i;
  for(i = start; i < stop+1; i++){
    block[j] = c[i];
    j = j+1;
  }
  return *block;
}


double complex put_block(double complex from[], double complex to[], int start, int stop)
{  
  int j = 0;
  int i;
  for(i = start; i<stop+1; i++){
    to[i] = from[j];
    j = j+1;
  }
  return *to;
}

我非常感谢您的反馈!

2 个答案:

答案 0 :(得分:1)

您是否尝试过调试代码?这可能是并行设置的痛苦,但它可以准确地告诉您失败的位置,通常也为什么

如果您使用的是Linux或OS X,则可以在命令行上按如下方式运行代码:

mpirun -np 4 xterm -e gdb -ex run --args ./yourprog yourargs

我假设yourprog是您的程序的名称,而yourargs是您要传递的任何命令行参数。

此命令将执行的操作是启动四个xterm窗口。每个xterm将按照选项gdb的指定启动-e。然后,gdb将执行选项run指定的-ex命令,并使用--args指定的给定选项启动您的可执行文件。

你得到的是四个xterm窗口,它们与MPI并行运行程序的四个实例。如果任何实例崩溃,gdb将告诉您何处和原因。

答案 1 :(得分:1)

您正在以错误的方式使用数组的阵列/指针。例如,您将一个数组声明为双复数块[N],这很好(虽然不常见,在大多数情况下最好使用malloc),然后通过MPI_Recv(&amp; block)接收它。但是“块”已经是指向该数组的指针,因此通过写“&amp; block”,您将指针的指针传递给MPI_Recv。这不是它所期望的。如果你想使用“&amp;”您必须编写&amp; block [0]的符号,它将为您提供指向块数组的第一个元素的指针。