根据https://www.tensorflow.org/lite/convert的指示,我已将张量流推断图转换为tflite模型文件(* .tflite)。
我在具有4个Nvidia TITAN GPU的GPU服务器上测试了tflite模型。我使用tf.lite.Interpreter加载并运行tflite模型文件。
它像以前的张量流图一样工作,但是问题是推论变得太慢了。当我检查出原因之后,我发现当tf.lite.Interpreter运行时,GPU利用率仅为0%。
有没有可以在GPU支持下运行tf.lite.Interpreter的方法?
答案 0 :(得分:0)
https://github.com/tensorflow/tensorflow/issues/34536
CPU对于tflite来说已经足够好了,尤其是多核。
nvidia GPU可能未针对tflite(针对移动GPU平台)进行更新。