我观察到,使用“最新gpu”泊坞窗映像的模型预测响应时间是使用我根据此处的https://www.tensorflow.org/tfx/serving/docker#building_a_container_from_a_dockerfile本地构建的GPU泊坞窗映像的两倍。
我在Tesla T4 GPU上运行模型并设置了TF_CUDA_COMPUTE_CAPABILITIES = 7.5,所以我本地构建的模型服务器应该支持Tesla T4功能,但是我怀疑某些环境和/或构建选项还有其他区别。< / p>
我的主要问题是,用于构建在docker hub(https://hub.docker.com/r/tensorflow/serving)上维护的tensorflow / serving docker映像的脚本可在线获得吗?