禁用了急切执行功能,因此我可以连接到云TPU并运行自定义训练循环。计算完损失后,我想打印该变量。
鉴于损失是Cloud TPU的张量,到目前为止,我还没有找到任何打印方法。 tf.print
返回PrintOperation
,因此我被卡住了。我想像将损耗张量移回我的CPU一样可行,但是我还没有找到任何可修改的方法。
我知道有可能获得该结果,因为当我在TPU分配策略下用keras
封装我的模型并使用model.fit
而不是我的自定义训练循环时,我可以得到损失指标。
因此必须有一种方法,对找到此方法的任何帮助将不胜感激:)
答案 0 :(得分:1)
好吧,尽管有更好的选择,但我还是想找到我的方法:
sess = tf.compat.v1.Session()
init_op = tf.compat.v1.global_variables_initializer()
sess.run(init_op)
<tensor>.eval(session=sess)