为什么张量流中的代码不起作用?

时间:2016-11-07 04:38:25

标签: machine-learning tensorflow deep-learning

我的代码是这样编写的。

def __init__(self, X):
    ops.reset_default_graph()
    tl.layers.clear_layers_name()

    self.sess = tf.Session()

    self.input_x = tf.placeholder(tf.float32, shape=[None, 784],name="input")  

    input_layer = tl.layers.InputLayer(self.input_x)
    drop1 = tl.layers.DropoutLayer(input_layer, keep=0.8, name="drop1")
    relu1 = tl.layers.DenseLayer(drop1, n_units=800, act = tf.nn.relu)
    drop2 = tl.layers.DropoutLayer(relu1, keep=0.5, name="drop2")

    self.output = drop2.all_layers[-1]

    self.gradient = tf.gradients(self.output,self.input_x)

    init_op = tf.initialize_all_variables()
    self.sess.run(init_op)
    self.output.eval(session=self.sess, feed_dict={self.input_x:X})

正如您所看到的,只有一个占位符已启动,但是,我遇到了

  

InvalidArgumentError:您必须为占位符张量提供值   '占位符'用dtype float [[Node:Placeholder =   Placeholderdtype = DT_FLOAT,shape = [],   _device =" /作业:本地主机/复制:0 /任务:0 / CPU:0"]]

我百分百肯定我输入的X类型为float32,形状为[1000,784]。

2 个答案:

答案 0 :(得分:2)

正如Olivier正确指出的那样,缺少Feed值的占位符张量的名称与您直接创建的占位符张量的名称不同("输入")。

如果您正在使用TensorLayer,您可能无法在不了解TensorLayer图层内部的情况下调用session.run或some_tensor.eval。例如,他们的DropoutLayer个实例在内部创建了tf.placeholder for the keep probability

据说这个库似乎只希望您通过他们的API(例如fittest)与您的模型进行互动,如下例所示:

# Train the network, we recommend to use tl.iterate.minibatches()
tl.utils.fit(sess, network, train_op, cost, X_train, y_train, x, y_,
            acc=acc, batch_size=500, n_epoch=500, print_freq=5,
            X_val=X_val, y_val=y_val, eval_train=False)

# Evaluation
tl.utils.test(sess, network, acc, X_test, y_test, x, y_, batch_size=None, cost=cost)

来自:https://github.com/zsdonghao/tensorlayer#your-first-program

答案 1 :(得分:2)

您有两种方式在TensorLayer中使用 DropoutLayer

1)使用由TensorLayer创建的内部保留概率占位符,请参阅tutorial_mlp_dropout1.py

2)我们不是使用占位符来控制保持概率,而是构建两个用于训练和测试的图表,请参阅tutorial_mlp_dropout2.py

因此,在您的情况下,如果您不想使用TensorLayer创建的内部占位符,则可以使用第二种方式。