我想解决的问题如下:
我在大型2D矩阵中计算的C ++序列码。为了优化这个过程,我希望拆分这个大的2D矩阵并使用MPI在4个节点上运行。节点之间发生的唯一通信是在每个时间步的末尾共享边缘值。每个节点与其邻居共享边缘阵列数据A [i] [j]。
根据有关MPI的阅读,我有以下方案要实施。
if (myrank == 0)
{
for (i= 0 to x)
for (y= 0 to y)
{
C++ CODE IMPLEMENTATION
....
MPI_SEND(A[x][0], A[x][1], A[x][2], Destination= 1.....)
MPI_RECEIVE(B[0][0], B[0][1]......Sender = 1.....)
MPI_BARRIER
}
if (myrank == 1)
{
for (i = x+1 to xx)
for (y = 0 to y)
{
C++ CODE IMPLEMENTATION
....
MPI_SEND(B[x][0], B[x][1], B[x][2], Destination= 0.....)
MPI_RECEIVE(A[0][0], A[0][1]......Sender = 1.....)
MPI BARRIER
}
我想知道我的方法是否正确,并且也希望其他MPI函数的任何指导也可以用于实现。
谢谢, 阿斯温
答案 0 :(得分:33)
只是为了放大乔尔的观点:
如果你分配你的数组以使它们是连续的(C的“多维数组”不会自动给你的话),这会更容易:)
int **alloc_2d_int(int rows, int cols) {
int *data = (int *)malloc(rows*cols*sizeof(int));
int **array= (int **)malloc(rows*sizeof(int*));
for (int i=0; i<rows; i++)
array[i] = &(data[cols*i]);
return array;
}
/*...*/
int **A;
/*...*/
A = alloc_2d_init(N,M);
然后,您可以使用
发送和接收整个NxM阵列MPI_Send(&(A[0][0]), N*M, MPI_INT, destination, tag, MPI_COMM_WORLD);
当你完成后,用
释放内存free(A[0]);
free(A);
此外,MPI_Recv
是阻止接收,MPI_Send
可以阻止发送。根据乔尔的观点,有一点意味着你绝对不需要障碍。此外,这意味着如果你有一个如上所述的发送/接收模式,你可以让自己陷入僵局 - 每个人都在发送,没有人接受。更安全的是:
if (myrank == 0) {
MPI_Send(&(A[0][0]), N*M, MPI_INT, 1, tagA, MPI_COMM_WORLD);
MPI_Recv(&(B[0][0]), N*M, MPI_INT, 1, tagB, MPI_COMM_WORLD, &status);
} else if (myrank == 1) {
MPI_Recv(&(A[0][0]), N*M, MPI_INT, 0, tagA, MPI_COMM_WORLD, &status);
MPI_Send(&(B[0][0]), N*M, MPI_INT, 0, tagB, MPI_COMM_WORLD);
}
另一种更通用的方法是使用MPI_Sendrecv
:
int *sendptr, *recvptr;
int neigh = MPI_PROC_NULL;
if (myrank == 0) {
sendptr = &(A[0][0]);
recvptr = &(B[0][0]);
neigh = 1;
} else {
sendptr = &(B[0][0]);
recvptr = &(A[0][0]);
neigh = 0;
}
MPI_Sendrecv(sendptr, N*M, MPI_INT, neigh, tagA, recvptr, N*M, MPI_INT, neigh, tagB, MPI_COMM_WORLD, &status);
或非阻止发送和/或接收。
答案 1 :(得分:4)
首先,你不需要那么大的障碍 其次,您应该将您的数据作为单个块发送,因为多个发送/接收阻塞会导致性能下降。