在MPI中,可以运行异步消息传递例程(例如,使用MPI_Irecv
接收)。 请求完成后是否可以附加回调函数?例如处理收到的数据。
这是我正在寻找的一个例子:
#include "mpi.h"
#include <stdio.h>
void mycallback(void* data){
(int*)data += 1; // add one to the received data
}
int main(int argc, char *argv[]){
int myid, numprocs, left, right;
int buffer[10], buffer2[10];
MPI_Request request;
MPI_Status status;
MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD, &numprocs);
MPI_Comm_rank(MPI_COMM_WORLD, &myid);
right = (myid + 1) % numprocs;
left = myid - 1;
if (left < 0)
left = numprocs - 1;
MPI_Irecv(buffer, 10, MPI_INT, left, 123, MPI_COMM_WORLD, &request);
// Attach_Callback(request, &mycallback); //somewhere after this point recv is completed an f is executed
MPI_Send(buffer2, 10, MPI_INT, right, 123, MPI_COMM_WORLD);
MPI_Wait(&request, &status); //the recv and the callback must have been called at this point
MPI_Finalize();
return 0;
}
我发现有一个MPI_Grequest_start
和MPI_Grequest_complete
函数,但它们似乎是用于其他内容,因为创建的请求与特定的消息传递无关。
也许我必须实现一个Grequest(通用请求),其中回调包含MPI_Recv
(不是MPI_Irecv
)。这是个主意吗?
答案 0 :(得分:2)
在标准中没有这样的东西。
正如@ AhmedMasud所说,你可以找到一种方法来使用通用请求: http://mpi-forum.org/docs/mpi-3.1/mpi31-report/node297.htm#Node297
正如你可以读到的那样,标准可能永远不会包含Irecv的回调,因为我同意的一些理由(分割MPI线程和你的程序线程之间的工作)。
您尝试做的事情并非无足轻重,而且与很多可移植性问题有关。你应该问自己的问题:我是否真的从MPI线程中执行回调中获益?我怀疑你心中的这种好处是效率,但出于效率原因,我应该避免使用Irecv和Isend,非阻塞是一个很好的功能,但只应该使用,并且只有在没有其他选择的情况下(例如输出服务器,你肯定不想浪费计算客户端的时间(但即便如此,缓冲发送通常会更好,并带来更大的带宽和更小的延迟)。
您需要的通讯的真实结构是什么? 如果它是0-> 1,1-> 2 ... n-1-> n,n-> 0,则此代码运行良好(并且将比您的解决方案更快),那么您可以轻松定义回调用你喜欢的方式做到这一点(解决方案的时间会小得多,调试变得更加容易: - )):
template<class Type>
void Parallel::sendUp(Type& bufferSend,
Type& bufferRec,
long len)
{
if(this->rank()%2==0)
{
if(this->rank()!=this->size()-1)
{
this->send(bufferSend,len,this->rank());
}
if(this->rank()!= 0)
{
this->receive(bufferRec,len,this->rank()-1);
}
else if(this->size()%2==0)
{
this->receive(bufferRec,len,this->size()-1);
}
}
else
{
this->receive( bufferRec, len , this->rank()-1);
if(this->grid_rank()!=this->grid_size()-1)
{
this->send(bufferSend,len,this->rank()+1);
}
else
{
this->send( bufferSend, len , 0);
}
}
if(this->size()%2!=0)
{
if(this->rank()==this->size()-1)
{
this->send( bufferSend, len , 0);
}
if(this->grid()==0)
{
this->receive(bufferRec, len , this->size()-1);
}
}
}
在该代码中,并行对象“只是”某些MPI调用的包装器,只是为了简化调用:
parallel.rank() = rank in the comm
parallel.size() = size of the comm
parallel.send/rec() is defined as follow
template<class Type>
void Parallel::send(Type* array, int len, int to)
{
MPI_Send(array, len*sizeof(Type), MPI_BYTE, to, 0,comm_);
}
template<class Type>
void Parallel::rec(Type* array, int len, int to)
{
MPI_Send(array, len*sizeof(Type), MPI_BYTE, to, 0,comm_);
}
template<class Type>
MPI_Status Parallel2d::receive(Type& array, int from, int len)
{
MPI_Status status;
MPI_Recv( &array, len*sizeof(Type), MPI_BYTE, from, 0,comm_,&status);
return status;
}
希望它有所帮助。