当我使用ML Kit在android应用程序中使用量化的tflite模型时,出现异常“模型故障:加载任务失败”。如果我使用尚未量化的相同模型,则一切正常。 我使用python将冻结的模型转换为tflite模型。
如果我将converter.post_training_quantize设置为False,则模型可以在android应用中正常运行,但将其设置为True则不能。请帮助为什么会发生这种情况,我想念什么? 为了获得更多信息,它的一个简单模型由两个卷积2d层和具有二进制交叉熵输出的完全连接的密集层组成。非常感谢。
converter = tf.contrib.lite.TFLiteConverter.from_frozen_graph(graph_file, inputs, outputs)
converter.post_training_quantize = True
tflite_model = converter.convert()
open(file_path, "wb").write(tflite_model)