标签: tensorflow pytorch onnx
您好,我有一些关于导出 ONNX 模型的问题。
假设我们有一个来自 PyTorch 的 LSTM 单元。
使用 torch.onnx.export 生成带有 LSTM 层的 ONNX 模型。
但是,我感兴趣的是它是否可以在operator级别生成ONNX模型,即matmul,add。
有没有办法做到这一点?
如果没有,是否有另一种方法来制作运营商级别的 ONNX 模型?
谢谢, 杰克
答案 0 :(得分:0)
当您使用 torch.onnx.export() 函数将模型从 PyTorch 导出到 onnx 时,它会记录初始模型已使用的所有操作。如前所述here。
torch.onnx.export()
我们调用 torch.onnx.export() 函数。这将执行模型,记录用于计算输出的运算符的踪迹。
所以,是的,它确实在操作员级别生成了 onnx 模型,您甚至可以使用 netron
.onnx
如果您仍想使用 onnx 运算符,here 是 ONNX 运算符架构。
onnx