MPI_Scatterv不起作用

时间:2015-11-09 17:19:02

标签: c mpi

我在C / MPI中编写了一个程序,它简单地在子矩阵(用于行)中拆分NxN矩阵,然后使用例程MPI_Scatterv将其分配给所有进程。维度N不一定是处理数量的倍数。我决定再给一行等于DIM%大小的进程。代码如下;它没有用,我也不明白为什么。错误消息是这样的: 工作中止: rank:node:退出代码[:错误消息] 0:PACI:-1073741819:进程0退出但未调用finalize

#include <mpi.h>
#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <time.h>

#define DIM 4
#define ROOT 0

float **alloc (int, int);
void init (float **, int, int);
void print (float **, int, int);

int main(int argc, char *argv[])
{
    int rank,               
    size,               
    dimrecv,
    i;                  
    int *sendcount = NULL, *displs = NULL;
    float **matrix, **recvbuf;  

    MPI_Init(&argc, &argv);
    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);

    dimrecv = (int)(DIM / size);
    if(rank < (DIM % size))
        dimrecv += 1 ;
    recvbuf = alloc(dimrecv, DIM); 

    if (rank == ROOT) 
    {
        matrix = alloc(DIM, DIM);
        init(matrix, DIM, DIM);
        sendcount = (int*)calloc(size, sizeof(int));
        displs = (int*)calloc(size, sizeof(int));
        int total = 0;
        printf("MATRIX %d x %d", DIM, DIM);
        print(matrix, DIM, DIM);

        displs[0] = 0;
        for (i = 0; i < size; i++)
        {
            if (i < DIM % size)
                sendcount[i] = (ceil((float)DIM/size))*DIM;
            else
                sendcount[i] = (floor((float)DIM/size))*DIM;
            total += sendcount[i];
            if (i + 1 < size)
                displs[i + 1] = total;
        }
    }
MPI_Scatterv(&(matrix[0][0]), sendcount, displs, MPI_FLOAT,
             recvbuf, dimrecv*DIM, MPI_FLOAT, ROOT, MPI_COMM_WORLD);

printf("\n\n");

for(i = 0; i< size; i++)
{
    MPI_Barrier(MPI_COMM_WORLD);
    if (i == rank)
    {
        printf("SUBMATRIX P%d", i);
        print(recvbuf, dimrecv, DIM);
    }
}

free(matrix[0]);
free(matrix);
free(recvbuf[0]);
free(recvbuf);
/* quit */
MPI_Finalize();
return 0;
}

float **alloc(int rows, int cols)
{
    int i;
    float *num_elem = (float *)calloc(rows*cols, sizeof(float));
    float **matrix= (float **)calloc(rows, sizeof(float*));
    for (i=0; i<rows; i++)
        matrix[i] = &(num_elem[cols*i]);

    return matrix;
}

void init (float **matrix, int rows, int cols)
{
    int i, j;
    srand(time(NULL));
    for (i = 0; i < rows; i++) {
        for (j = 0; j < cols; j++)
            matrix[i][j] = 1 + (rand() % 5);
    }
}

void print (float **matrix, int rows, int cols)
{
int i, j;
for (i = 0; i < rows; i++) {
        printf("\n");
        for (j = 0; j < cols; j++)
            printf("%.1f ", matrix[i][j]);
    }
}

如何使用带双指针的动态分配来解决问题?我已经以静态方式编写了相同的程序并且它可以正常工作!。非常感谢。 大同。

2 个答案:

答案 0 :(得分:0)

您需要更加小心哪个进程/级别正在分配内存,以及哪个进程/级别因此释放内存。

在您当前的实施中,您希望rank == ROOT分配和初始化matrixsendcountdispls。您希望每个排名都分配并初始化sendcountdispls(否则,当他们每个人都输入MPI_Scatterv时,他们如何知道他们将接收到什么??) 。最后,他们还需要分配,但初始化recvbuf。此缓冲区的初始化发生在MPI_Scatterv例程的内部。

[旁注:您在技术上不需要让每个排名初始化sendcountdispls,尽管这肯定会最快。如果只有rank == ROOT进程具有计算这些值的知识,那么在进入MPI_Bcast例程之前,您必须将MPI_Scatterv这两个数组都放到每个进程中。]

当然,您必须确保只有正确的等级才能释放他们之前分配的正确记忆。

这在静态初始化中起作用的原因是每个等级&#34;已分配&#34;最初静态定义数组时的内存。假设你天真地这样做,你可能以前在该实现中使用了过多的内存(因为,如上所示,并非每个等级都需要为你正在使用的每个矩阵/数组分配内存)。

希望这有帮助。

答案 1 :(得分:0)

感谢Nose的建议。然而,该计划并不奏效。修改后的代码如下:

...
MPI_Bcast(sendcount, 4, MPI_INT, ROOT, MPI_COMM_WORLD);
MPI_Bcast(displs, 4, MPI_INT, ROOT, MPI_COMM_WORLD);

MPI_Scatterv(&(matrix[0][0]), sendcount, displs, MPI_FLOAT,
             recvbuf, dimrecv*DIM, MPI_FLOAT, ROOT, MPI_COMM_WORLD);

printf("\n\n");
for(i = 0; i< size; i++)
{
    MPI_Barrier(MPI_COMM_WORLD);
    if (i == rank)
    {
        printf("SUBMATRIX P%d", i);
        print(recvbuf, dimrecv, DIM);
    }
}
if (rank == ROOT) {
    for (i=0; i<DIM; i++)
        free(matrix[i]);
    free(matrix);
}
for(i=0; i<dimrecv; i++)
    free(recvbuf[i]);
free(recvbuf);
free(sendcount);
free(recvbuf);

sendcount和displs已在级别ROOT的可见性之外分配。代码中肯定存在一些我无法捕获的错误。