我正在尝试并行化for
循环操作,该操作夹在两个for
循环之间。
在每个处理器中计算数据(3d数组)之后,我想从每个处理器收集数据回到根节点以供我进一步处理。我尝试使用MPI_Gather
函数将数据恢复到根节点。使用此功能可以从根处理器收回数据,但不会从其他处理器收集数据。
int main(int argc, char * argv[]) {
int i,k,l,j;
int Np = 7, Nz = 7, Nr = 4;
int mynode, totalnodes;
MPI_Status status;
long double ***k_p, ***k_p1;
int startvalp,endvalp;
MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD, &totalnodes);
MPI_Comm_rank(MPI_COMM_WORLD, &mynode);
// Allocation of memory
Allocate_3D_R(k_p,(Nz+1),(Np+1),(Nr+1));
Allocate_3D_R(k_p1,(Nz+1),(Np+1),(Nr+1));
// startvalp represents the local starting value for each processor
// endvalp represents the local ending value for each processor
startvalp = (Np+1)*mynode/totalnodes - 0;
endvalp = startvalp + (((Np+1)/totalnodes) -1);
for(l = 0 ; l <= 1 ; l++){
for(k=startvalp; k<=endvalp; k++){
// for loop parallelized between the processors
// original loop: for(k=0; k<= Np; k++)
for(i=0; i<=1; i++){
k_p[i][k][l] = l+k+i;
}
}
}
// For Np = 7 and for two processors ;
// k = 0 - 3 is calculated in processor 0;
// k = 4 - 7 is calculated in processor 1;
// Now I need to collect the value of k_p from processor 1
// back to the root processor.
// MPI_Gather function is used.
for(l = 0 ; l <= 1 ; l++){
for(k=startvalp; k<=endvalp; k++){
for(i=0; i<=1; i++){
MPI_Gather(&(k_p[i][k][l]),1, MPI_LONG_DOUBLE,&(k_p1[i][k][l]),1, MPI_LONG_DOUBLE, 0, MPI_COMM_WORLD);
}
}
}
// Using this the k_p is collected from root processor and stored
// in the k_p1 variable, but from the slave processor it is not
// collected back to the root processor.
if(mynode == 0){
for(l = 0 ; l <= 1 ; l++){
for(k=0; k<=Np; k++){
for(i=0i<=1;i++){
cout << "Processor "<<mynode;
cout << ": k_p["<<i<<"]["<<k<<"]["<<l<<"] = " <<k_p1[i][k][l]<<endl;
}
}
}
}
MPI_Finalize();
} // end of main
void Allocate_3D_R(long double***& m, int d1, int d2, int d3) {
m=new long double** [d1];
for (int i=0; i<d1; ++i) {
m[i]=new long double* [d2];
for (int j=0; j<d2; ++j) {
m[i][j]=new long double [d3];
for (int k=0; k<d3; ++k) {
m[i][j][k]=0.0;
}
}
}
}
这是输出:
Processor 0: k_p[0][0][0] = 0
Processor 0: k_p[1][0][0] = 1
Processor 0: k_p[0][1][0] = 1
Processor 0: k_p[1][1][0] = 2
Processor 0: k_p[0][2][0] = 2
Processor 0: k_p[1][2][0] = 3
Processor 0: k_p[0][3][0] = 3
Processor 0: k_p[1][3][0] = 4
Processor 0: k_p[0][4][0] = 0
Processor 0: k_p[1][4][0] = 0
Processor 0: k_p[0][5][0] = 0
Processor 0: k_p[1][5][0] = 0
Processor 0: k_p[0][6][0] = 0
Processor 0: k_p[1][6][0] = 0
Processor 0: k_p[0][7][0] = 0
Processor 0: k_p[1][7][0] = 0
Processor 0: k_p[0][0][1] = 1
Processor 0: k_p[1][0][1] = 2
Processor 0: k_p[0][1][1] = 2
Processor 0: k_p[1][1][1] = 3
Processor 0: k_p[0][2][1] = 3
Processor 0: k_p[1][2][1] = 4
Processor 0: k_p[0][3][1] = 4
Processor 0: k_p[1][3][1] = 5
Processor 0: k_p[0][4][1] = 0
Processor 0: k_p[1][4][1] = 0
Processor 0: k_p[0][5][1] = 0
Processor 0: k_p[1][5][1] = 0
Processor 0: k_p[0][6][1] = 0
Processor 0: k_p[1][6][1] = 0
Processor 0: k_p[0][7][1] = 0
Processor 0: k_p[1][7][1] = 0
来自根处理器的数据是传输的,但不是从其他处理器传输的。
我尝试使用MPI_Send
和MPI_Recv
函数,但没有遇到上述问题,但对于for
循环的大值,需要更多时间。
因此,任何人都可以解决上述问题吗?
答案 0 :(得分:0)
这里的问题实际上类似于2d中的问题:MPI_Type_create_subarray and MPI_Gather;那里有一个非常冗长的答案,涵盖了大部分关键点。
收集多维数组部分比仅执行1d数组更棘手,因为您收集的数据实际上是重叠的。例如,排名1的第一行位于第0行的第一行和第二行之间。因此,您需要(a)使用mpi_gatherv
,因此您可以指定位移,以及(b)设置数据的范围明确地键入以促进重叠。
了解复杂数据结构的发送和接收(在MPI中或其他任何内容中)都是为了理解内存中数据的布局 - 这对于从代码中获得高性能至关重要。
说到内存布局,你的Allocate3d不能用于此目的;问题是它分配的内存可能不是连续的。如果以这种方式分配10x10x10阵列,则无法保证元素[1] [0] [0]紧跟在元素[0] [9] [9]之后。这是C / C ++中的常见问题,它没有任何内置的多维数组概念。你需要做这样的事情:
void Allocate_3D_R(long double***& m, int d1, int d2, int d3) {
m=new long double** [d1];
for (int i=0; i<d1; ++i) {
m[i]=new long double* [d2];
}
m[0][0] = new long double[d1*d2*d3];
for (int i=0; i<d1; ++i) {
for (int j=0; j<d2; ++j) {
if (i!=0 && j!=0)
m[i][j]=&(m[0][0][(i*d2+j)*d3];
for (int k=0; k<d3; ++k) {
m[i][j][k]=0.0;
}
}
}
加或减 - 也就是说,您需要分配一个连续的d1 * d2 * d3内存块,然后将数组指示指向该连续内存中的适当位置。