有没有办法将张量提供给占位符,或者在定义后连接张量的类似机制?
我一直在用图层来定义我的网络,但是现在我发现自己需要从后面的图层中提供一个带有张量的早期图层。这是伪代码,如果有错误,我道歉。
...
# rnn layer
...
outputs, states = rnn.rnn(cell, inputs, ...)
...
# fc layer
...
logits = [tf.matmul(output, W_fc)+b_fc for output in outputs]
...
# predictions
...
preds = [to_one_hot(tf.argmax(logit, 1)) for logit in logits]
...
# now I want to connect preds[t] to inputs[t+1]
如果输入[1:]可以是占位符并且我可以向他们提供preds [: - 1],那将是很好的。
如果没有办法,我打算使用的凌乱方法是循环时间,从rnn开始,定义所有层,以便通过时间步长进行反向传播。非常感谢任何帮助。
答案 0 :(得分:0)
#!/usr/bin/python
import tensorflow as tf
s = tf.InteractiveSession()
x = tf.placeholder_with_default( [ [1,2,3,4,5,6] ] , [None , 6])
print s.run ( x )