是否可以附加要在请求完成时执行的回调?

时间:2018-04-10 22:19:56

标签: c asynchronous callback request mpi

在MPI中,可以运行异步消息传递例程(例如,使用MPI_Irecv接收)。 请求完成后是否可以附加回调函数?例如处理收到的数据。

这是我正在寻找的一个例子:

#include "mpi.h"
#include <stdio.h>

void mycallback(void* data){
   (int*)data += 1; // add one to the received data
}

int main(int argc, char *argv[]){
    int myid, numprocs, left, right;
    int buffer[10], buffer2[10];
    MPI_Request request;
    MPI_Status status;

    MPI_Init(&argc,&argv);
    MPI_Comm_size(MPI_COMM_WORLD, &numprocs);
    MPI_Comm_rank(MPI_COMM_WORLD, &myid);

    right = (myid + 1) % numprocs;
    left = myid - 1;
    if (left < 0)
        left = numprocs - 1;

    MPI_Irecv(buffer, 10, MPI_INT, left, 123, MPI_COMM_WORLD, &request);
 // Attach_Callback(request, &mycallback); //somewhere after this point recv is completed an f is executed
    MPI_Send(buffer2, 10, MPI_INT, right, 123, MPI_COMM_WORLD);
    MPI_Wait(&request, &status); //the recv and the callback must have been called at this point
    MPI_Finalize();
    return 0;
}

我发现有一个MPI_Grequest_startMPI_Grequest_complete函数,但它们似乎是用于其他内容,因为创建的请求与特定的消息传递无关。

也许我必须实现一个Grequest(通用请求),其中回调包含MPI_Recv(不是MPI_Irecv)。这是个主意吗?

1 个答案:

答案 0 :(得分:2)

在标准中没有这样的东西。

正如@ AhmedMasud所说,你可以找到一种方法来使用通用请求: http://mpi-forum.org/docs/mpi-3.1/mpi31-report/node297.htm#Node297

正如你可以读到的那样,标准可能永远不会包含Irecv的回调,因为我同意的一些理由(分割MPI线程和你的程序线程之间的工作)。

您尝试做的事情并非无足轻重,而且与很多可移植性问题有关。你应该问自己的问题:我是否真的从MPI线程中执行回调中获益?我怀疑你心中的这种好处是效率,但出于效率原因,我应该避免使用Irecv和Isend,非阻塞是一个很好的功能,但只应该使用,并且只有在没有其他选择的情况下(例如输出服务器,你肯定不想浪费计算客户端的时间(但即便如此,缓冲发送通常会更好,并带来更大的带宽和更小的延迟)。

您需要的通讯的真实结构是什么? 如果它是0-> 1,1-> 2 ... n-1-> n,n-> 0,则此代码运行良好(并且将比您的解决方案更快),那么您可以轻松定义回调用你喜欢的方式做到这一点(解决方案的时间会小得多,调试变得更加容易: - )):

template<class Type> 
void Parallel::sendUp(Type& bufferSend,
                      Type& bufferRec, 
                      long len)
{
    if(this->rank()%2==0)
    {
        if(this->rank()!=this->size()-1)
        {
            this->send(bufferSend,len,this->rank());
        }
        if(this->rank()!= 0)
        {
            this->receive(bufferRec,len,this->rank()-1);
        }
        else if(this->size()%2==0)
        {
            this->receive(bufferRec,len,this->size()-1);
        }
    }
    else
    {
        this->receive( bufferRec, len , this->rank()-1);
        if(this->grid_rank()!=this->grid_size()-1)
        {
            this->send(bufferSend,len,this->rank()+1);
        }
        else
        {
            this->send( bufferSend, len , 0);
        }
    }

    if(this->size()%2!=0)
    {
        if(this->rank()==this->size()-1)
        {
            this->send( bufferSend, len , 0);
        }
        if(this->grid()==0)
        {
            this->receive(bufferRec, len , this->size()-1);
        }
    }
}

在该代码中,并行对象“只是”某些MPI调用的包装器,只是为了简化调用:

parallel.rank() = rank in the comm
parallel.size() = size of the comm
parallel.send/rec() is defined as follow

template<class Type> 
void Parallel::send(Type* array, int len, int to)
{
    MPI_Send(array, len*sizeof(Type), MPI_BYTE, to, 0,comm_);
}

template<class Type> 
void Parallel::rec(Type* array, int len, int to)
{
    MPI_Send(array, len*sizeof(Type), MPI_BYTE, to, 0,comm_);
}

template<class Type>
MPI_Status Parallel2d::receive(Type& array, int from, int len)
{
    MPI_Status  status;
    MPI_Recv( &array, len*sizeof(Type), MPI_BYTE, from, 0,comm_,&status);
    return status;
}

希望它有所帮助。