发送INT时MPICH2内存不足

时间:2012-02-24 17:42:08

标签: mpi mpich

我整个星期都在努力尝试让3机群运行扭矩+ mpich2。我的计划是将它用作我的开发环境,并最终在EC2或其他云中运行生产代码。由于它是一个开发环境,我只是使用一些备用机器(2个64位,1个32位,以防万一)。这些机器正在使用Ubuntu的各种发行版(特立独行,耐寒和业力)。

我遇到的问题是,在一个简单的发送/接收测试程序中,我使recv调用看起来内存不足,我不明白为什么。机器上有大约1.2G的RAM,发送/接收1个int。

下面是代码:

/*
 * A very simple send/recv program
 */

#include <stdlib.h>
#include <unistd.h>
#include <stdio.h>
#include <mpi.h>

#define MAXHOSTNAMELEN 64

int main(int argc, char **argv) 
{
    int pid, from;
    int nproc;
    MPI_Status status;
    int to_recv;
    int to_send = 1;
    char hostname[MAXHOSTNAMELEN];

    MPI_Init(&argc, &argv);
    MPI_Comm_size(MPI_COMM_WORLD, &nproc);
    MPI_Comm_rank(MPI_COMM_WORLD, &pid);

    gethostname(hostname, MAXHOSTNAMELEN);
    printf("%d of %d:%s Checking in\n", pid, nproc, hostname);

    if (pid == 0) {
        MPI_Recv(&to_recv, 1, MPI_INT, 2, 0, MPI_COMM_WORLD, &status);
        from = status.MPI_SOURCE;
        printf("%d of %d:%s Recieved Value %d from %d\n", pid, nproc, hostname, to_recv, from);

        MPI_Recv(&to_recv, 1, MPI_INT, 1, 0, MPI_COMM_WORLD, &status);
        from = status.MPI_SOURCE;
        printf("%d of %d:%s Recieved Value %d from %d\n", pid, nproc, hostname, to_recv, from);
    } else {
        MPI_Send(&to_send, 1, MPI_INT, 0, 0, MPI_COMM_WORLD);
        printf("%d of %d:%s Sent value\n", pid, nproc, hostname);
    }   

    MPI_Finalize();
    exit(0);
}

这是输出:

0 of 3:master Checking in
2 of 3:node1 Checking in
1 of 3:node2 Checking in
1 of 3:node2 Sent value
Fatal error in MPI_Recv: Other MPI error, error stack:
MPI_Recv(186)...........................: MPI_Recv(buf=0x7fff33bed040, count=1, MPI_INT, src=2, tag=0, MPI_COMM_WORLD, status=0x7fff33bed020) failed
MPIDI_CH3I_Progress(402)................: 
MPID_nem_mpich2_blocking_recv(905)......: 
MPID_nem_tcp_connpoll(1838).............: 
state_commrdy_handler(1676).............: 
MPID_nem_tcp_recv_handler(1564).........: 
MPID_nem_handle_pkt(636)................: 
MPIDI_CH3_PktHandler_EagerShortSend(441): Out of memory
Fatal error in MPI_Send: Other MPI error, error stack:
MPI_Send(173)..............: MPI_Send(buf=0x7fff8ee5396c, count=1, MPI_INT, dest=0, tag=0, MPI_COMM_WORLD) failed
MPID_nem_tcp_connpoll(1826): Communication error with rank 0: Connection refused

如果有任何我没有提供的必要信息,请告诉我,我会添加。

MPICH2版本:mpich2-1.4.1p1从每台机器的源代码编译而来 gcc版本:
 主人:4.2.4
 node1:4.4.5
 node2:4.4.1

另外,如果重要,node2是32位机器。提前感谢您的帮助。

编辑:我在过去使用过的集群上运行了这个集群,该集群已经设置并且已知可以正常工作以测试代码。代码似乎工作正常,我相信我看到的问题与我的开发群集上的MPI配置有关。

1 个答案:

答案 0 :(得分:3)

不幸的是,MPICH2不支持异构平台。您可以构建MPICH2和32位应用程序,并在所有计算机上运行它。