tensorflow XLA不生成点文件

时间:2017-08-14 19:06:06

标签: tensorflow tensorflow-xla

我正在尝试关注XLA和JIT(https://www.tensorflow.org/performance/xla/jit)的教程。根据{{​​3}},当我运行命令

https://www.tensorflow.org/performance/xla/jit#step_3_run_with_xla

它应该生成一个带有XLA图的位置的输出。但是,我的输出不包含此信息。

Extracting /tmp/tensorflow/mnist/input_data/train-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/train-labels-idx1-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-labels-idx1-ubyte.gz
0.9172

仅生成时间轴文件。

Build:使用XLA JIT for CPU的张量流r1.3

2 个答案:

答案 0 :(得分:0)

这里的关键是命令的这一部分:

TF_XLA_FLAGS=--xla_generate_hlo_graph=.*

整个事情应该是:

TF_XLA_FLAGS=--xla_generate_hlo_graph=.* python mnist_softmax_xla.py

有了这个,你应该看到一堆像:

这样的行
I tensorflow/compiler/xla/service/hlo_graph_dumper.cc:1254] computation cluster_1[_XlaCompiledKernel=true,_XlaNumConstantArgs=0,_XlaNumResourceArgs=0].v31 [GPU-ir-emit-prepare: after flatten-call-graph, pipeline end]: /tmp/hlo_graph_67.5dOpgX.dot

注意:我在1.4而不是1.3上进行了测试。

答案 1 :(得分:0)

完整命令应为

std::cout << ansi::foreground_red << "in red" << ansi::reset << std::endl;

从源代码构建时,请确保具有xla选项。以及请求设备。即

TF_XLA_FLAGS="--xla_hlo_graph_path=./tmp_dot --xla_generate_hlo_graph=.*" python mnist_softmax_xla.py

另外,给出的示例使用tf.Variable,应将其替换为tf.get_variable。

完整代码如下:

with tf.device("/job:localhost/replica:0/task:0/device:XLA_CPU:0"):