TensorFlow:有没有办法检查模型训练是否正在使用XLA编译?

时间:2017-07-17 12:14:13

标签: machine-learning tensorflow deep-learning

我已经从源安装了TF并启用了XLA JIT编译。当我在会话中运行我的训练代码时,它会显示以下消息:

"XLA service 0x62bb180 executing computations on platform Host" and
"XLA service 0x62a43b0 executing computations on platform CUDA"

这是否意味着我的培训是使用XLA_GPU设备?因为当我试图用tf.device("/device:XLA_GPU:0")显式包装我的会话时,似乎根本没有性能提升(训练速度仍然相同)。从我阅读的文档来看,似乎用tf.device包装会话是激活XLA JIT的方法之一。

有没有办法验证我是否在训练中使用XLA JIT?

0 个答案:

没有答案