我为服务器进行了tensorflow推断,构建了一个docker镜像。我在docker镜像中用pip安装了tensorflow-gpu。我的机器与titan x gpus搭配使用时效果很好。但是,当我在另一台具有1080 ti gpus的计算机上运行docker容器时。第一次运行变得非常缓慢,大约需要90秒,通常第一次运行需要7秒,而随后的运行需要1秒。我试图将tf_cudnn_use_autotune设置为0,并且还安装了一个文件夹来保存cuda缓存。但这并不能真正解决问题。有人有什么建议吗?
答案 0 :(得分:0)
这里是a link。 我找到了。
运行TensorFlow一次后,编译的内核将由CUDA缓存。如果使用docker容器,则不会缓存数据,并且每次TensorFlow启动时都要支付罚款。。