给出各层的张量名称,是否可以仅对特定层评估输入,并且通常可以在正向传递过程中保存所有结果?
将感谢您的帮助
答案 0 :(得分:1)
问题尚不清楚,但是我想这就是你的追求:
您创建的每个张量或操作都有一个可能的参数name
。通过为每个张量提供一个名称,您可以使用tf.Graph().get_tensor_by_name
并在调用时在feed_dict
中传递所需的输入。
关于保存结果,您可以使用tf.train.Saver()类保存模型的当前状态。
这是一个简单的模型示例,其中在一个脚本中创建并保存一个模型,然后在另一个脚本中加载该模型,并使用tf.Graph().get_tensor_by_name
访问其张量。
save_model.py
#create model
x = tf.placeholder(tf.float32, shape=[3,3], name="x")
w = tf.Variable(tf.random_normal(dtype=tf.float32, shape=[3,3], mean=0, stddev=0.5), name="w")
xw = tf.multiply(x,w, name="xw")
# create saver
saver = tf.train.Saver()
# run and save model
x_input = np.ones((3,3))*2 # numpy array of 2s
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
xw_out = sess.run(xw, feed_dict={x: x_input})
# save model including variables to ./tmp
save_path = saver.save(sess, "./tmp/model.ckpt")
print("Model saved with w at: \n {}".format(w.eval()))
>>>Model saved with w at:
>>> [[ 0.07033788 -0.9353725 0.9999725 ]
>>> [-0.2922624 -1.143613 -1.0453095 ]
>>> [ 0.02661585 0.18821386 0.19582961]]
print(xw_out)
>>>[[ 0.14067577 -1.870745 1.999945 ]
>>>[-0.5845248 -2.287226 -2.090619 ]
>>>[ 0.05323171 0.3764277 0.39165923]]
load_model.py
# load saved model graph
saver = tf.train.import_meta_graph("./tmp/model.ckpt.meta")
x_input = np.ones((3,3))*2 # numpy array of 2s
with tf.Session() as sess:
# Restore sesssion from saver
saver.restore(sess, "./tmp/model.ckpt")
print("Model restored.")
# Check the values of the variables
w = sess.run(sess.graph.get_tensor_by_name("w:0"))
xw = sess.run(sess.graph.get_tensor_by_name("xw:0"), feed_dict={"x:0": x_input})
print("Output calculated with w loaded from ./tmp at: \n {}".format(w))
>>>INFO:tensorflow:Restoring parameters from ./tmp/model.ckpt
>>>Model restored.
>>>Output calculated with w loaded from ./tmp at:
>>> [[ 0.07033788 -0.9353725 0.9999725 ]
>>> [-0.2922624 -1.143613 -1.0453095 ]
>>> [ 0.02661585 0.18821386 0.19582961]]
print(xw)
>>>[[ 0.14067577 -1.870745 1.999945 ]
>>>[-0.5845248 -2.287226 -2.090619 ]
>>>[ 0.05323171 0.3764277 0.39165923]]
注意::0
中操作名称后面的“ get_tensor_by_name()
”指定它是您想要的该操作输出的 0th 张量。
可以看到此代码在一组jupyter笔记本here中工作,并且如果已经构建了图形,则还有另一个更简单的实现。