MPI矩阵多重编译错误:未声明

时间:2009-04-14 12:34:29

标签: matrix mpi

我编写了一个mpi矩阵多重程序,使用scanf("%d", &size),指定矩阵大小,然后我定义了int matrix[size*size],但是当我遵守它时,它报告矩阵是未声明的。请告诉我原因,或者我的问题是什么!

根据Ed的建议,我将矩阵定义更改为if(myid == 0)块,但是得到了相同的错误!现在我发布我的代码,请帮我找出我犯错误的地方!谢谢!

#include "mpi.h"
#include <stdio.h>
#include <math.h>
#include <time.h>

int size;

int main(int argc, char* argv[])
     {

     int myid, numprocs;
     int *p;
     MPI_Status status;

     int i,j,k;

     MPI_Init(&argc, &argv);
     MPI_Comm_rank(MPI_COMM_WORLD,&myid);
     MPI_Comm_size(MPI_COMM_WORLD, &numprocs);




     if(myid == 0)
     {
             scanf("%d", &size);
             int matrix1[size*size];
             int matrix2[size*size];
             int matrix3[size*size];
             int section = size/numprocs;
             int tail = size % numprocs;


             srand((unsigned)time(NULL));

             for( i=0; i<size; i++)
                for( j=0; j<size; j++)
                   {
                        matrix1[i*size+j]=rand()%9;
                        matrix3[i*size+j]= 0;
                        matrix2[i*size+j]=rand()%9;
                   }   

             printf("Matrix1 is: \n"); 
             for( i=0; i<size; i++)
                {
                for( j=0; j<size; j++)
                  {
                        printf("%3d", matrix1[i*size+j]);
                  }
                printf("\n");
                }

             printf("\n");
             printf("Matrix2 is: \n");
             for( i=0; i<size; i++)
                {
                for( j=0; j<size; j++)
                {
                        printf("%3d", matrix2[i*size+j]);
                }
                printf("\n");
                }                
              //MPI_BCAST(matrix1, size*size, MPI_INT, 0, MPI_COMM_WORLD, );

              for( i=1; i<numprocs; i++)
                  {
                      MPI_Send(&size, 1, MPI_INT, i, 0, MPI_COMM_WORLD);
                      MPI_Send(&section, 1, MPI_INT, i, 0, MPI_COMM_WORLD);
                      MPI_Send(&tail, 1, MPI_INT, i, 0, MPI_COMM_WORLD);
                      MPI_Send(maxtrix2, size*size, MPI_INT, i, 0, MPI_COMM_WORLD); 

                  }


              j = 0;

              for( i=1; i<numprocs-1; i++)
                  {
                       p = &matrix1[size*section*j++];
                       MPI_Send(p, size*section, MPI_INT, i, 1, MPI_COMM_WORLD);
                  }
              p = &matrix1[size*section*j];
              MPI_Send(p, size*section+size*tail, MPI_INT, numprocs-1, 1, MPI_COMM_WORLD);


              p = matrix3;
              for( i=1; i<numprocs-1; i++)
                  {
                      MPI_Recv(p, size*section, MPI_INT, i, 1, MPI_COMM_WORLD, &status);
                      p = &matrix3[size*section*i];

                      }
              MPI_Recv(p, size*section+size*tail, MPI_INT, numprocs-1, 1, MPI_COMM_WORLD, &status);

             printf("\n");
             printf("Matrix3 is: \n");
             for( i=0; i<size; i++)
                {
                for( j=0; j<size; j++)
                {
                        printf("%2d ", matrix3[i*size+j]);
                }
                printf("\n");
                }
       }

       else if (myid > 0 && myid<numprocs-1 )
       {      
              MPI_Recv(&size, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              MPI_Recv(&section, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              MPI_Recv(&tail, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              int matrix1[size*size];
              int matrix2[size*size];
              int matrix3[size*size];

              MPI_Recv(matrix2, size*size, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);
              MPI_Recv(matrix1, size*section, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);   

              for( i=0; i<section; i++)
                  for( j=0; j<size; j++)
                    for( k=0; k<size; k++)
                    {
                            matrix1[i*size+j] = matrix1[i*size+k]*matrix2[k*size+j];
                    }

             MPI_Send(matrix1, size*section, MPI_INT, 0, 1, MPI_COMM_WORLD);             
       }

       else if (myid > 0 && myid == numprocs-1)
       {
              MPI_Recv(&size, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              MPI_Recv(&section, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              MPI_Recv(&tail, 1, MPI_INT, 0, 0,MPI_COMM_WORLD, &status);
              int matrix1[size*size];
              int matrix2[size*size];
              int matrix3[size*size];

              MPI_Recv(matrix2, size*size, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);
              MPI_Recv(matrix1, size*section+size*tail, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);

              for( i=0; i<section+tail; i++)
                  for( j=0; j<size; j++)
                    for( k=0; k<size; k++)
                    {
                            matrix1[i*size+j] = matrix1[i*size+k]*matrix2[k*size+j];
                    }

             MPI_Send(matrix1, size*section+size*tail, MPI_INT, 0, 1, MPI_COMM_WORLD);       
       }

     return 0;         
     MPI_Finalize();     

}              

2 个答案:

答案 0 :(得分:1)

在设置矩阵的大小之前,可能是在一台机器上使用scanf(),但是如果矩阵的大小存储在所有机器上,则scanf()将不会全部运行。

如果是这种情况,在开始使用MPI功能之前,必须先扫描主要进程上矩阵的大小,然后发送矩阵的大小(通过COMM_WORLD.Bcast()或者一些其他方法)到每个过程,以便正确定义矩阵。

当然,这只是一个猜测,因为你提供的信息太少而无法做出明智的答案,所以我最有可能做出解释。

修改

好的,这里有一些变化可以让它编译(其中一些可能会完成,当你粘贴它时你的代码有点好笑,而且可能有其他我错过了,再次代码被格式化了有点可笑)

MPI_Send(maxtrix2, size*size, MPI_INT, i, 0, MPI_COMM_WORLD); 
应该
MPI_Send(&matrix2, size*size, MPI_INT, i, 0, MPI_COMM_WORLD); 

         int section = size/numprocs;
         int tail = size % numprocs;
这些需要在第一个if语句之前定义,以便它们进一步工作,所以只需在main之后直接定义它们而不分配它们。 (否则当其他进程尝试使用它们时它们不存在)

很抱歉,我没有时间弄清楚代码并实际让它做你想做的事,但这至少应该让你可以调试可运行的代码。

答案 1 :(得分:0)

编译时不知道“size”的值。因此错误。

如果您不熟悉编码,那么您正在阅读大小的值并尝试分配它,这似乎是合乎逻辑的。事实上,这将适用于像Python这样的解释性语言。但是你的代码是在C. C程序需要编译才能工作。当编译器查看您的代码时,它不知道变量“size”的值是多少。在下一个语句中,您使用的是变量“size”。因此,您尝试使用其值尚不知道的变量。这就是编译器所抱怨的。

解决此问题的两种方法: 1)声明一个足够大的矩阵,比如1000 X 1000.在运行时,你可以决定你想要使用多少大小。但是不要给出比你在源代码中硬编码的值更多的值,即1000 X 1000.你在这里做的是告诉编译器为1000 X 1000项目分配内存,但你可能会也可能不会使用整个空间。你将浪费记忆力,这不是一种有效的方法。

2)使用动态分配。但是,考虑到这个问题的性质,这对你来说可能太先进了。