TensorRT 7.0.0是否可以将INT8用于LSTM推理?如果可能的话,怎么办?

时间:2019-12-24 09:10:44

标签: lstm precision tensorrt

我想将LSTM与INT8数据类型一起使用。

但是,原始的IRNNv2层仅支持FP32和FP16,不支持INT8。因此,我不能将源API用于INT8 LSTM。 TensorRT7: Support Matrix(IRNNv2 Layer)

TensorRT 7.0.0发布了一个新插件: 以下部分描述了新的Persistent LSTM插件。持久LSTM插件支持半精度持久LSTM。但它也仅支持FP16。new plugin: Persistent LSTM

IPluginV2支持INT8,我可能会用它来实现自定义的INT8 LSTM层,这似乎是使用INT8 LSTM的唯一方法。 TensorRT7: Support Matrix(IRNNv2 Layer) using custom layer with tensorRT

我想知道我是否可以用IPluginV2层实现自定义INT8 LSTM层。我有更好的方法吗?

0 个答案:

没有答案