我玩了一点
import tensorflow as tf
x = tf.Variable([1.0, 2.0])
initializer = tf.global_variables_initializer()
session.run(initializer)
x
<tf.Variable 'Variable:0' shape=(2,) dtype=float32_ref>
y = 2 * x
y
<tf.Tensor 'mul:0' shape=(2,) dtype=float32>
z = y + 1
z
<tf.Tensor 'add:0' shape=(2,) dtype=float32>
v = session.run(x)
sess.run(initializer)
v = sess.run(x)
print (v)
[ 1. 2.]
v1 = sess.run(z)
print (v1)
[ 3. 5.]
v = sess.run(x)
我有3个变量x,y,z。是否可以显示使用提示中的一个命令定义的所有变量? 如果我尝试Jonas的建议
new = tf.trainable_variables()
print (new)
[<tf.Variable 'Variable:0' shape=(2,) dtype=float32_ref>]
答案 0 :(得分:6)
tf.trainable_variables()
打印出图表中的所有可训练变量,在您的情况下,只有x。当您执行y = 2 * x
时,这实际上是隐式定义常量值mul/x
,并将原始变量作为Variable/read
如果您运行以下代码:
x = tf.Variable(1)
y = 2 * x
z = y + 1
for v in tf.get_default_graph().as_graph_def().node:
print v.name
您将获得以下输出:
Variable/initial_value
Variable
Variable/Assign
Variable/read
mul/x
mul
add/y
add
这些是图表中的所有节点。您可以使用它来过滤掉所需的所有相关信息。根据您的情况,我不会调用y
和z
变量。
请注意,这是从图表而不是会话中获取所有信息。如果您希望从特定会话中获取该会话,则需要获取相关会话并致电sess.graph
。
最后一点,上面的示例使用了v.name
,但每个图表节点实际上都有更多属性,例如name
,op
,input
,{{1 },device
。有关详细信息,请参阅API。
答案 1 :(得分:1)
也许我误解了这个问题,但是这有什么问题?
print(sess.run([x, y, z]))