使用TensorFlow-Lite时,由于不同的计算能力,模型的运行时在不同的android设备上可能会有很大差异

时间:2019-01-22 07:34:47

标签: android performance tensorflow tensorflow-lite

使用TFLite在Android设备上运行NN模型时,Android设备太多,不同的设备具有不同的计算性能。因此,很难使用单一模型来覆盖所有设备。

一种解决方案是根据设备的computing capacity对不同的设备使用具有不同FLOP的模型。

但是,TFLite中没有API可以获取computing capacity。所以我很好奇如何处理这种情况。

1 个答案:

答案 0 :(得分:0)

目前还没有可靠的故事。您可能要考虑的一件事是在功能强大的设备上运行浮点模型,而在性能较差的设备上运行量化模型(准确性受到影响)。但是,这是超级手册,因为正如您所说的,tflite中现在没有API来获得计算能力。