我已经从源安装了TF并启用了XLA JIT编译。当我在会话中运行我的训练代码时,它会显示以下消息:
"XLA service 0x62bb180 executing computations on platform Host" and
"XLA service 0x62a43b0 executing computations on platform CUDA"
这是否意味着我的培训是使用XLA_GPU
设备?因为当我试图用tf.device("/device:XLA_GPU:0")
显式包装我的会话时,似乎根本没有性能提升(训练速度仍然相同)。从我阅读的文档来看,似乎用tf.device
包装会话是激活XLA JIT的方法之一。
有没有办法验证我是否在训练中使用XLA JIT?