如何打包tensorflow-gpu模型以在大多数机器上运行?

时间:2019-07-08 09:12:12

标签: python docker tensorflow gpu nvidia

Tensorflow GPU版本,nvidia驱动程序版本,cudnn版本具有特殊的兼容性矩阵。这个兼容性矩阵在打包和分发tensorflow模型时造成了问题,当我通过它们时可以由其他人毫无麻烦地运行。基于容器的技术(例如docker)也将存在问题,因为它不知道nvidia驱动程序版本。我想知道是否有人知道打包tensorflow模型的最佳方法,该模型可以根据linux系统上的基础nvidia驱动程序自动进行配置。我该如何实现?

1 个答案:

答案 0 :(得分:1)

最简单的方法是在docker中使用tensorflow镜像 https://hub.docker.com/r/tensorflow/tensorflow/ 对于GPU,您可以将nvidia工具与预先安装的现有映像配合使用,或将其与docker文件一起添加。