我们正在尝试将自己的后端实现到TensorFlow XLA编译器,但我们遇到了一个有点尴尬的情况:我们似乎无法让现有的CPU编译器做任何事情。使用此处的TensorFlow XLA示例:
我们在配置步骤中使用.inRoot
从源构建TensorFlow并调试信息。然后我们在LLDB中运行softmax示例并尝试中断对TF_ENABLE_XLA=1
的调用。如下所示,程序运行完成而不会破坏Compile()函数,或者显然是任何预期会调用它的函数。
CpuCompiler::Compile()
答案 0 :(得分:1)
回答GitHub:
https://github.com/tensorflow/tensorflow/issues/9194
尚未在TensorFlow开发提示中启用CPU JIT。它应该适用于GPU。