我正在创建一个带有新会话的张量流模型,您将在其伪代码下面找到
inp = tf.placeholder() #----- placeholder for model1
# conv and relu layers
intermediate = conv2d() # ----- an intermediate output that I want to use in model2
# conv and relu layers
loss = tf.reduce_mean( sigmoid_cross_entropy_with_logits( predicted , real ) )
sess1.run( loss , feed_dict = { inp : images } )
现在,我想使用预先训练的模型,并在损失函数中添加最后一层的输出。例如,
sess2 = tf.Session()
load_model( sess2 )
预训练模型有自己的占位符,我想将intermediate
张量中的值发送到预训练模型的占位符。因此,我想在每个批次中运行预训练模型并评估其预测。
问题是,在搜索时我发现我们无法将张量feed_dict张量馈给占位符。每当第一个模型学习时,我还有其他方法可以评估第二个模型吗?