如何运用XLA编译器?

时间:2017-04-13 23:16:00

标签: tensorflow

我们正在尝试将自己的后端实现到TensorFlow XLA编译器,但我们遇到了一个有点尴尬的情况:我们似乎无法让现有的CPU编译器做任何事情。使用此处的TensorFlow XLA示例:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax_xla.py

我们在配置步骤中使用.inRoot从源构建TensorFlow并调试信息。然后我们在LLDB中运行softmax示例并尝试中断对TF_ENABLE_XLA=1的调用。如下所示,程序运行完成而不会破坏Compile()函数,或者显然是任何预期会调用它的函数。

CpuCompiler::Compile()

1 个答案:

答案 0 :(得分:1)

回答GitHub:

https://github.com/tensorflow/tensorflow/issues/9194

尚未在TensorFlow开发提示中启用CPU JIT。它应该适用于GPU。