16位浮点MPI_Reduce?

时间:2015-04-14 22:11:19

标签: c++ parallel-processing mpi precision

我有一个分布式应用程序,它使用MPI_Reduce()进行某些通信。在精度方面,我们使用16位浮点数(半精度)获得完全准确的结果。

为加速沟通(减少数据移动量),有没有办法在16位浮点数上调用MPI_Reduce()


(我查看了MPI文档,并没有看到有关16位浮点数的任何信息。)

1 个答案:

答案 0 :(得分:5)

MPI标准在其内部数据类型中仅定义了32位(MPI_FLOAT)或64位(MPI_DOUBLE)浮点数。

但是,您始终可以创建自己的MPI_Datatype和自己的自定义缩减操作。下面的代码粗略地说明了如何做到这一点。由于不清楚您正在使用哪个16位浮点实现,因此我将该类型简称为float16_t,将加法操作称为fp16_add()

// define custom reduce operation
void my_fp16_sum(void* invec, void* inoutvec, int *len,
              MPI_Datatype *datatype) {
    // cast invec and inoutvec to your float16 type
    float16_t* in = (float16_t)invec;
    float16_t* inout = (float16_t)inoutvec;
    for (int i = 0; i < *len; ++i) {
        // sum your 16 bit floats
        *inout = fp16_add(*in, *inout);
    }
}

// ...

//  in your code:

// create 2-byte datatype (send raw, un-interpreted bytes)
MPI_Datatype mpi_type_float16;
MPI_Type_contiguous(2, MPI_BYTE, &mpi_type_float16);
MPI_Type_commit(&mpi_type_float16);

// create user op (pass function pointer to your user function)
MPI_Op mpi_fp16sum;
MPI_Op_create(&my_fp16_sum, 1, &mpi_fp16sum);

// call MPI_Reduce using your custom reduction operation
MPI_Reduce(&fp16_val, &fp16_result, 1, mpi_type_float16, mpi_fp16sum, 0, MPI_COMM_WORLD);

// clean up (freeing of the custom MPI_Op and MPI_Datatype)
MPI_Type_free(&mpi_type_float16);
MPI_Op_free(&mpi_fp16sum);