使用TFLite在Android设备上运行NN模型时,Android设备太多,不同的设备具有不同的计算性能。因此,很难使用单一模型来覆盖所有设备。
一种解决方案是根据设备的computing capacity
对不同的设备使用具有不同FLOP的模型。
但是,TFLite中没有API可以获取computing capacity
。所以我很好奇如何处理这种情况。
答案 0 :(得分:0)
目前还没有可靠的故事。您可能要考虑的一件事是在功能强大的设备上运行浮点模型,而在性能较差的设备上运行量化模型(准确性受到影响)。但是,这是超级手册,因为正如您所说的,tflite中现在没有API来获得计算能力。