我想在我的mpi程序中进行边境交换。 我的结构看起来像那样:
cell** local_petri_A;
local_petri_A = calloc(p_local_petri_x_dim,sizeof(*local_petri_A));
for(int i = 0; i < p_local_petri_x_dim ; i ++){
local_petri_A[i] = calloc(p_local_petri_y_dim,sizeof(**local_petri_A));
}
其中cell是:
typedef struct {
int color;
int strength;
} cell;
所以我把我的程序放在一个笛卡尔拓扑中,首先定义mpi类型来执行交换: void create_types(){
////////////////////////////////
////////////////////////////////
// cell type
const int nitems=2;
int blocklengths[2] = {1,1};
MPI_Datatype types[2] = {MPI_INT, MPI_INT};
MPI_Aint offsets[2];
offsets[0] = offsetof(cell, color);
offsets[1] = offsetof(cell, strength);
MPI_Type_create_struct(nitems, blocklengths, offsets, types, &mpi_cell_t);
MPI_Type_commit(&mpi_cell_t);
////////////////////////////////
///////////////////////////////
MPI_Type_vector ( x_inside , 1 , 1 , mpi_cell_t , & border_row_t );
MPI_Type_commit ( & border_row_t );
/*we put the stride to x_dim to get only one column*/
MPI_Type_vector ( y_inside , 1 , p_local_petri_x_dim , MPI_DOUBLE , & border_col_t );
MPI_Type_commit ( & border_col_t );
}
然后最终尝试从南方和北方进行交换:
/*send to the north receive from the south */
MPI_Sendrecv ( & local_petri_A[0][1] , 1 , border_row_t , p_north , TAG_EXCHANGE ,& local_petri_A [0][ p_local_petri_y_dim -1] , 1 , border_row_t , p_south , TAG_EXCHANGE ,cart_comm , MPI_STATUS_IGNORE );
/*send to the south receive from the north */
MPI_Sendrecv ( & local_petri_A[0][ p_local_petri_y_dim -2] , 1 , border_row_t , p_south , TAG_EXCHANGE ,& local_petri_A [0][0] , 1 , border_row_t , p_north , TAG_EXCHANGE ,cart_comm , MPI_STATUS_IGNORE );
注意:在本节中,x_inside和y_inside是&#34;内部&#34;数组的维度(没有重影部分)和p_local_petri_dim是完整数组的维度。
我做错了吗?
提前感谢您的帮助。
答案 0 :(得分:2)
问题在于您分配2D阵列的方式。 您分配了一个数组数组,因此连续内存中不太可能有两行。因此,列的ddt与2D数组布局不匹配。
您可以参考MPI_Bcast a dynamic 2d array正确分配数组。
作为旁注,Fortran没有这种问题,所以如果这是一个选项,那将使你的生活更轻松。