我有一个自定义的CNN模型,并且已将其转换为.tflite格式,并将其部署到了我的Android应用中。但是,我无法弄清楚如何在使用TensorFlow Lite进行推理时进行批处理。
在此Google doc上,您似乎必须设置模型的输入格式。但是,此文档使用的是Firebase API的代码示例,我不打算使用。
更具体地说:
我想一次推断多个100x100x3图像,因此输入大小为 N x100x100x3。
问题:
如何使用TF lite做到这一点?
答案 0 :(得分:2)
您可以仅调用resizeInput
API(Java)或ResizeInputTensor
API(如果使用的是C ++)。
例如,在Java中:
interpreter.resizeInput(tensor_index, [num_batch, 100, 100, 3]);
如果您在TensorFlow lite中进行批处理有任何问题,请告诉我们。