如何释放分配给张量流精简解释器的内存

时间:2019-07-26 04:52:42

标签: tensorflow tensorflow-lite

我正在尝试在加载模型和解释器时释放分配给tensorflow-lite的内存。我正在使用以下代码来加载TensorFlow Lite模型并为解释器做准备。

model1 =tflite::FlatBufferModel::BuildFromFile(graph.c_str());
tflite::InterpreterBuilder(*model1, resolver1)(&interpreter1);
interpreter1->AllocateTensors();

我试图使用如下释放函数来释放模型。

interpreter1.release();
model1.release();

但是当我这样做时,Xcode Instrument在以下代码中检测到内存泄漏。

model1 =tflite::FlatBufferModel::BuildFromFile(graph.c_str()); 
tflite::InterpreterBuilder(*model1, resolver1)(&interpreter1);
interpreter1->AllocateTensors();

0 个答案:

没有答案