我正在尝试关注XLA和JIT(https://www.tensorflow.org/performance/xla/jit)的教程。根据{{3}},当我运行命令
时https://www.tensorflow.org/performance/xla/jit#step_3_run_with_xla
它应该生成一个带有XLA图的位置的输出。但是,我的输出不包含此信息。
Extracting /tmp/tensorflow/mnist/input_data/train-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/train-labels-idx1-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-labels-idx1-ubyte.gz
0.9172
仅生成时间轴文件。
Build:使用XLA JIT for CPU的张量流r1.3
答案 0 :(得分:0)
这里的关键是命令的这一部分:
TF_XLA_FLAGS=--xla_generate_hlo_graph=.*
整个事情应该是:
TF_XLA_FLAGS=--xla_generate_hlo_graph=.* python mnist_softmax_xla.py
有了这个,你应该看到一堆像:
这样的行I tensorflow/compiler/xla/service/hlo_graph_dumper.cc:1254] computation cluster_1[_XlaCompiledKernel=true,_XlaNumConstantArgs=0,_XlaNumResourceArgs=0].v31 [GPU-ir-emit-prepare: after flatten-call-graph, pipeline end]: /tmp/hlo_graph_67.5dOpgX.dot
注意:我在1.4而不是1.3上进行了测试。
答案 1 :(得分:0)
完整命令应为
std::cout << ansi::foreground_red << "in red" << ansi::reset << std::endl;
从源代码构建时,请确保具有xla选项。以及请求设备。即
TF_XLA_FLAGS="--xla_hlo_graph_path=./tmp_dot --xla_generate_hlo_graph=.*" python mnist_softmax_xla.py
另外,给出的示例使用tf.Variable,应将其替换为tf.get_variable。
完整代码如下:
with tf.device("/job:localhost/replica:0/task:0/device:XLA_CPU:0"):