我的代码是这样编写的。
def __init__(self, X):
ops.reset_default_graph()
tl.layers.clear_layers_name()
self.sess = tf.Session()
self.input_x = tf.placeholder(tf.float32, shape=[None, 784],name="input")
input_layer = tl.layers.InputLayer(self.input_x)
drop1 = tl.layers.DropoutLayer(input_layer, keep=0.8, name="drop1")
relu1 = tl.layers.DenseLayer(drop1, n_units=800, act = tf.nn.relu)
drop2 = tl.layers.DropoutLayer(relu1, keep=0.5, name="drop2")
self.output = drop2.all_layers[-1]
self.gradient = tf.gradients(self.output,self.input_x)
init_op = tf.initialize_all_variables()
self.sess.run(init_op)
self.output.eval(session=self.sess, feed_dict={self.input_x:X})
正如您所看到的,只有一个占位符已启动,但是,我遇到了
InvalidArgumentError:您必须为占位符张量提供值 '占位符'用dtype float [[Node:Placeholder = Placeholderdtype = DT_FLOAT,shape = [], _device =" /作业:本地主机/复制:0 /任务:0 / CPU:0"]]
我百分百肯定我输入的X
类型为float32,形状为[1000,784]。
答案 0 :(得分:2)
正如Olivier正确指出的那样,缺少Feed值的占位符张量的名称与您直接创建的占位符张量的名称不同("输入")。
如果您正在使用TensorLayer,您可能无法在不了解TensorLayer图层内部的情况下调用session.run或some_tensor.eval。例如,他们的DropoutLayer
个实例在内部创建了tf.placeholder
for the keep probability。
据说这个库似乎只希望您通过他们的API(例如fit
和test
)与您的模型进行互动,如下例所示:
# Train the network, we recommend to use tl.iterate.minibatches()
tl.utils.fit(sess, network, train_op, cost, X_train, y_train, x, y_,
acc=acc, batch_size=500, n_epoch=500, print_freq=5,
X_val=X_val, y_val=y_val, eval_train=False)
# Evaluation
tl.utils.test(sess, network, acc, X_test, y_test, x, y_, batch_size=None, cost=cost)
来自:https://github.com/zsdonghao/tensorlayer#your-first-program
答案 1 :(得分:2)
您有两种方式在TensorLayer中使用 DropoutLayer :
1)使用由TensorLayer创建的内部保留概率占位符,请参阅tutorial_mlp_dropout1.py
2)我们不是使用占位符来控制保持概率,而是构建两个用于训练和测试的图表,请参阅tutorial_mlp_dropout2.py
因此,在您的情况下,如果您不想使用TensorLayer创建的内部占位符,则可以使用第二种方式。