OpenMPI MPI_Send与Intel MPI MPI_Send

时间:2019-02-14 02:43:57

标签: c++ mpi openmpi intel-mpi

我有一个使用openmpi编译并运行的代码。最近,我想使用Intel MPI运行相同的代码。但是我的代码无法正常工作。 我深入研究代码,发现MPI_Send在两种实现中的行为都不同。

我从其他论坛获得了使用MPI_Isend而不是来自其他论坛的MPi_Send的建议。但这需要大量的工作来修改代码。英特尔MPI中是否有任何变通办法,使其能够像在OpenMPI中那样工作。可能是某些标志或缓冲区增加或其他。预先感谢您的回答。

int main(int argc, char **argv) {
    int numRanks;
    int rank;
    char cmd[] = "Hello world";
    MPI_Status status;

    MPI_Init (&argc, &argv);
    MPI_Comm_size (MPI_COMM_WORLD, &numRanks);
    MPI_Comm_rank (MPI_COMM_WORLD, &rank);
    if(rank == 0) {
            for (int i=0; i< numRanks; i++) {
                    printf("Calling MPI_Send() from rank %d to %d\n", rank, i);
                  MPI_Send(&cmd,sizeof(cmd),MPI_CHAR,i,MPI_TAG,MPI_COMM_WORLD);
                    printf("Returned from MPI_Send()\n");
            }
    }
    MPI_Recv(&cmd,sizeof(cmd),MPI_CHAR,0,MPI_TAG,MPI_COMM_WORLD,&status);
    printf("%d receieved from 0 %s\n", rank, cmd);

    MPI_Finalize();
}

OpenMPI结果

# mpirun --allow-run-as-root  -n 2  helloworld_openmpi
Calling MPI_Send() from rank 0 to 0
Returned from MPI_Send()
Calling MPI_Send() from rank 0 to 1
Returned from MPI_Send()
0 receieved from 0 Hello world
1 receieved from 0 Hello world

英特尔MPI结果

# mpiexec.hydra -n 2 /root/helloworld_intel

Calling MPI_Send() from rank 0 to 0

停留在MPI_Send。

1 个答案:

答案 0 :(得分:4)

假设MPI_Send()将在发布匹配的收件之前返回,这是不正确的,因此您的代码相对于MPI标准而言是不正确的,并且很幸运,它没有与Open MPI一起挂起。

MPI实现通常会急于发送 small 消息,以便MPI_Send()可以立即返回,但这是标准未强制要求的实现选择,“ small”消息取决于库版本,您正在使用的互连以及其他因素。

这里唯一安全且可移植的选择是编写正确的代码。

FWIW,MPI_Bcast(cmd, ...)在这里更合适,假设所有等级都已经知道字符串长度加上NUL终止符。

最后但并非最不重要的是,buffer参数是cmd而不是&cmd