我想对Armadllio向量执行MPI_Allreduce operation
但我得到0输出。基本上,我每个处理器都有arma vector v。使用MPI_Allreduce,我想在w中添加所有向量。我不确定是否必须添加一些同步。以下是我的代码。
#include <iostream>
#include <stdlib.h>
#include <mpi.h>
#include <math.h>
#include <assert.h>
#include<armadillo>
using namespace std;
using namespace arma;
int main(int argc, char** argv) {
MPI_Init(NULL, NULL);
int world_rank;
MPI_Comm_rank(MPI_COMM_WORLD, &world_rank);
int world_size;
MPI_Comm_size(MPI_COMM_WORLD, &world_size);
vec v(2,fill::randu);
vec w(2,fill::zeros);
MPI_Allreduce(&w, &v, 1, MPI_DOUBLE, MPI_SUM, MPI_COMM_WORLD);
if(world_rank==0)
cout<<"w: "<<w<<endl;
MPI_Finalize();
}
我的输出:
w: 0
0
答案 0 :(得分:3)
您的MPI_Allreduce
电话有两个问题。首先,你的double
中有vec
个,所以计数应为2.其次,你已经切换了发送和接收缓冲区。
int MPI_Allreduce(void * sendbuf,void * recvbuf,int count, MPI_Datatype数据类型,MPI_Op op,MPI_Comm comm)
所以你的命令应该是:
MPI_Allreduce(&v, &w, 2, MPI_DOUBLE, MPI_SUM, MPI_COMM_WORLD);
假设犰狳向量中保存的数据是连续存储的,从类/结构本身的第一个字节开始,这应该可以正常工作。
编辑:我在armadillo文档中看得更清楚一点。有一个函数memptr()
,它返回一个指向数据本身的指针。这是MPI_Allreduce()
而不是&vector
应该使用的内容。因此,您的实际函数调用应该是:
MPI_Allreduce(v.memptr(), w.memptr(), 2, MPI_DOUBLE, MPI_SUM, MPI_COMM_WORLD);