如何通过MPI_Send发送整数数组?

时间:2017-09-26 23:56:26

标签: c arrays mpi

我正在尝试在常规C中创建一个程序,它在任意数量的进程之间平均分配整数数组。出于调试目的,我使用一个带有12个数字的整数数组,只有2个进程,这样主进程将有[1,2,3,4,5,6]而slave1将有[7,8,9,10] ,11,12]。但是我收到的错误是:MPI_ERR_BUFFER: invalid buffer pointer

经过一番研究后,我发现有一个函数可以做到(MPI_Scatter)。不幸的是,由于我正在学习MPI,因此实施仅限于MPI_SendMPI_Recv。无论如何,MPI_SendMPI_Recv都使用void *,我发送一个int *所以它应该工作。谁能指出我做错了什么?谢谢。

int* create_sub_vec(int begin, int end, int* origin);
void print(int my_rank, int comm_sz, int n_over_p, int* sub_vec);

int main(void){

    int comm_sz;
    int my_rank;

    int vec[12] = {1,2,3,4,5,6,7,8,9,10,11,12};
    int* sub_vec = NULL;
    int n_over_p;

    MPI_Init(NULL, NULL);
    MPI_Comm_size(MPI_COMM_WORLD, &comm_sz);
    MPI_Comm_rank(MPI_COMM_WORLD, &my_rank);    

    n_over_p = 12/comm_sz;
    printf("Process %d calcula n_over_p = %d\n", my_rank, n_over_p);

    if (my_rank != 0) {
        MPI_Recv(sub_vec, n_over_p, MPI_INT, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
        print(my_rank, comm_sz, n_over_p, sub_vec);

    } else {

        printf("Distribuindo dados\n");
        for (int i = 1; i < comm_sz; i++) {
            sub_vec = create_sub_vec(i*n_over_p, (i*n_over_p)+n_over_p, vec);
            MPI_Send(sub_vec, n_over_p, MPI_INT, i, 0, MPI_COMM_WORLD);
        }
        printf("Fim da distribuicao de dados\n");

        sub_vec = create_sub_vec(0, n_over_p, vec);

        print(my_rank, comm_sz, n_over_p, sub_vec);
    }

    MPI_Finalize();
    return 0;

}

int* create_sub_vec(int begin, int end, int* origin){
    int* sub_vec;
    int size;
    int aux = 0;
    size = end - begin;
    sub_vec = (int*)malloc(size * sizeof(int));
    for (int i = begin; i < end; ++i) {
        *(sub_vec+aux) = *(origin+i);
        aux += 1;
    }
    return  sub_vec;
}

void print(int my_rank, int comm_sz, int n_over_p, int* sub_vec){
    printf("Process %d out of %d received sub_vecotr: [ ", my_rank, comm_sz);
    for (int i = 0; i < n_over_p; ++i)
    {
        printf("%d, ", *(sub_vec+i));
    }
    printf("]\n");
}

1 个答案:

答案 0 :(得分:3)

问题是sub_vec未在非零等级上分配。 这取决于你(例如MPI不分配接收缓冲区)。

接收部分应该看起来像

if (my_rank != 0) {
    sub_vec = (int *)malloc(n_over_p * sizeof(int));    
    MPI_Recv(sub_vec, n_over_p, MPI_INT, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
}

正如您所写,自然的方式是通过MPI_Scatter()(再一次,您可以在开始分散之前分配接收缓冲区。