我想将LSTM与INT8数据类型一起使用。
但是,原始的IRNNv2层仅支持FP32和FP16,不支持INT8。因此,我不能将源API用于INT8 LSTM。 TensorRT7: Support Matrix(IRNNv2 Layer)
TensorRT 7.0.0发布了一个新插件: 以下部分描述了新的Persistent LSTM插件。持久LSTM插件支持半精度持久LSTM。但它也仅支持FP16。new plugin: Persistent LSTM
IPluginV2支持INT8,我可能会用它来实现自定义的INT8 LSTM层,这似乎是使用INT8 LSTM的唯一方法。 TensorRT7: Support Matrix(IRNNv2 Layer) using custom layer with tensorRT
我想知道我是否可以用IPluginV2层实现自定义INT8 LSTM层。我有更好的方法吗?