MPI全面沟通问题

时间:2016-03-14 14:48:31

标签: c++ mpi

我在进程之间传递大型向量进行数值模拟。一切正常,直到某个时间步。我没有收到错误,但输出解决方案显然不正确。

我现在调试了很长一段时间,我的假设是MPI通信出错。

我的代码的通信部分如下所示:

MPI_Request req;
for(int j=0;j<numProcs;j++){
    if(j!=myId){
        tag=0;
        sizeToSend=toProc[j].size();
        MPI_Isend(&sizeToSend, 1, MPI_LONG_LONG, j, tag, MPI_COMM_WORLD,&req);
        MPI_Request_free(&req);
    }
}
for(int j=0;j<numProcs;j++){
    if(j!=myId){
        tag=0;
        MPI_Recv(&sizeToReceive[j], 1, MPI_LONG_LONG, j, tag, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
    }
}
for(int j=0;j<numProcs;j++){
    if(j!=myId){
        if(toProc[j].size()>0){
            tag=1;
            MPI_Isend(&toProc[j][0], toProc[j].size(), MPI_LONG_LONG, j, tag, MPI_COMM_WORLD,&req);
            MPI_Request_free(&req);
        }
    }
}
for(int j=0;j<numProcs;j++){
    if(j!=myId){
        if(sizeToReceive[j]>0){
            receiveBuffer.resize(sizeToReceive[j]);
            tag=1;
            MPI_Recv(&receiveBuffer[0], sizeToReceive[j], MPI_LONG_LONG, j, tag, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
            for(int k=0;k<sizeToReceive[j];k++){
                domain.field[receiveBuffer[k]]=1;
            }
            receiveBuffer.clear();
        }
    }
}
MPI_Barrier(MPI_COMM_WORLD);
for(int j=0;j<toProc.size();j++){
    toProc[j].clear();
}

变量numProcs是一个包含进程数的int,myId是一个包含进程&#39;等级,tag是一个整数,domain.field是一个vector<char>。 其他必要的变量定义如下:

vector<vector <long long> > toProc;
toProc.resize(numProcs);
long long sizeToReceive[numProcs];
long long sizeToSend=0;
vector<long long> receiveBuffer;

我在上面的代码中尝试做的是将向量toProc[j]发送到每个进程的id==j for j=0,...,numProcs-1, j!=myId处理。 为了达到这个目的,我在前两个for循环中发送和接收这些向量的大小,并在第3和第4个for循环中发送和接收实际数据。我正在使用Isend,因为我显然希望这些调用是非阻塞的。

toProc[j]中的值是索引,必须在进程j的向量domain.field中设置为1(每个进程都有自己的domain.field)。

我的问题是: 您是否认为我使用Isend-Recv策略时可能会出现意外行为。

1 个答案:

答案 0 :(得分:2)

您正在为多个Chloe O&#8217;Brian请求重用变量,而无需等待完成。

MPI Standard:3.7.2和3.7.4关于ISend

  

非阻塞发送呼叫表示系统可能开始复制   数据超出发送缓冲区。发件人不应修改任何部分   调用非阻塞发送操作后的发送缓冲区,直到   发送完成。

这意味着,在发送完成之前,您不得覆盖MPI_Request_free

  

将请求对象标记为取消分配并将请求设置为   MPI_REQUEST_NULL。正在进行的与之相关的沟通   请求将被允许完成。该请求将被取消分配   只有在完成之后。

这意味着,sizeToSend之后无法保证完成发送。

您可以重新构建代码以将MPI_Request_free保留在向量中,并将打开的请求保留在向量中以正确sizeToSend。但我建议只使用MPI_WaitallMPI_Alltoall进行整个操作。