在多个主机之间分发进程时,打开MPI程序不起作用

时间:2011-08-03 15:20:53

标签: c++ mpi distributed-computing

当我在一台计算机上运行多个进程时,我的测试程序运行正常。

$ ./mpirun -np 2 ./mpi-test
Hi I'm A:0
Hi I'm A:1
A:1 sending 11...
A:1 sent 11
A:0 received 11 from 1
all workers checked in!

当我在多个主机上运行相同的程序时,会在每个主机上生成进程,但MPI_Send永远不会返回。

$ ./mpirun -np 2 -host A,B ./mpi-test
Hi I'm A:0
Hi I'm B:1
B:1 sending 11...

我尝试过其他几个我发现的样本MPI程序,但遇到了同样的问题。知道出了什么问题吗?

编辑:如果在该计算机上生成所有进程,这也可以在远程计算机上运行。

代码:

#include <mpi.h>

int main(int argc, char** argv)
{
    MPI::Init();
    int rank = MPI::COMM_WORLD.Get_rank();
    int size = MPI::COMM_WORLD.Get_size();
    char name[256];
    int len;
    MPI::Get_processor_name(name, len);

    printf("Hi I'm %s:%d\n", name, rank);

    if (rank == 0) {
        while (size > 1) {
            int val;
            MPI::Status status;
            MPI::COMM_WORLD.Recv(&val, 1, MPI::INT, MPI::ANY_SOURCE, MPI::ANY_TAG, status);
            int source = status.Get_source();
            printf("%s:0 received %d from %d\n", name, val, source);
            size--;
        }
        printf("all workers checked in!\n");
    }
    else {
        int val = rank + 10;
        printf("%s:%d sending %d...\n", name, rank, val);
        MPI::COMM_WORLD.Send(&val, 1, MPI::INT, 0, 0);
        printf("%s:%d sent %d\n", name, rank, val);
    }
    MPI::Finalize();

    return 0;
}

编辑:ompi_info

$ ./mpirun --bynode -host A,B --tag-output ompi_info -v ompi full --parsable
[1,0]<stdout>:package:Open MPI user@A Distribution
[1,0]<stdout>:ompi:version:full:1.4.3
[1,0]<stdout>:ompi:version:svn:r23834
[1,0]<stdout>:ompi:version:release_date:Oct 05, 2010
[1,0]<stdout>:orte:version:full:1.4.3
[1,0]<stdout>:orte:version:svn:r23834
[1,0]<stdout>:orte:version:release_date:Oct 05, 2010
[1,0]<stdout>:opal:version:full:1.4.3
[1,0]<stdout>:opal:version:svn:r23834
[1,0]<stdout>:opal:version:release_date:Oct 05, 2010
[1,0]<stdout>:ident:1.4.3
[1,1]<stdout>:package:Open MPI user@B Distribution
[1,1]<stdout>:ompi:version:full:1.4.3
[1,1]<stdout>:ompi:version:svn:r23834
[1,1]<stdout>:ompi:version:release_date:Oct 05, 2010
[1,1]<stdout>:orte:version:full:1.4.3
[1,1]<stdout>:orte:version:svn:r23834
[1,1]<stdout>:orte:version:release_date:Oct 05, 2010
[1,1]<stdout>:opal:version:full:1.4.3
[1,1]<stdout>:opal:version:svn:r23834
[1,1]<stdout>:opal:version:release_date:Oct 05, 2010
[1,1]<stdout>:ident:1.4.3

2 个答案:

答案 0 :(得分:1)

我最终升级到A上的1.5.3并在C上安装1.5.3。我不确定这是升级还是B的问题,但现在一切正常。

供参考:

  • 原始设置:节点A(arch linux,Open MPI 1.4.3),节点B(ubuntu,Open MPI) 1.4.3)
  • 工作设置:节点A(arch linux,Open MPI 1.5.3),节点C(arch linux, 打开MPI 1.5.3)

答案 1 :(得分:0)

通常的原因是远程主机上没有正确设置某些内容;它可能是登录/网络问题,或者远程主机上找不到MPI库/可执行文件或程序本身。

如果您尝试

会发生什么
mpirun -np 2 -host A,B  hostname