标签: memory deployment deep-learning pytorch cpu
我正在尝试使用Pytorch 3D UNet进行推理(从此处:https://github.com/wolny/pytorch-3dunet),该方法接收大小为(96、96、96)的图像。我想在CPU实例上使用它,但是内存使用率很高(〜18 GB)。在研究了该主题之后,我发现这是由于在CPU上实现卷积的方式引起的(请参见https://discuss.pytorch.org/t/pytorch-high-memory-demand/2798/5)。因此,我有以下问题:
谢谢!
答案 0 :(得分:0)
您可以使用 DNN-Bench 对模型的性能进行基准测试,并为您的应用程序和硬件选择最佳推理引擎。您可能需要先将模型转换为 ONNX。