Tensorflow在没有训练的情况下显示出完美的准确度

时间:2018-01-18 09:53:37

标签: python tensorflow

我正在运行以下代码,但我得到输出step 0, training accuracy 1,这似乎暗示网络是完美的,没有任何培训,这显然是错误的。

import tensorflow as tf

def weight_variable(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial)

def bias_variable(shape):
    initial = tf.constant(0.1, shape=shape)
    return tf.Variable(initial)

input_size = 4
input_shape = (-1, 2, 2, 1)

x1 = tf.placeholder(tf.float32, shape=[None, input_size])
y_ = tf.placeholder(tf.float32, shape=[None, 1])

W_fc = weight_variable([input_size, 1])
b_fc = bias_variable([1])

y_conv = tf.matmul(x1, W_fc) + b_fc

cross_entropy = tf.reduce_mean(
    tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for i in range(200):
        batch = [((0, 0, 0, 0), (1, 0, 0, 0), (1, 0, 1, 0)),
                  ((0,), (1,), (2,))]
        if i % 100 == 0:
            train_accuracy = accuracy.eval(feed_dict={
                    x1: batch[0], y_: batch[1]})
            print('step %d, training accuracy %g' % (i, train_accuracy))
        train_step.run(feed_dict={x1: batch[0], y_: batch[1]})

代码主要来自tensorflow mnist示例,但重新排列了一下。显然不是我的完整代码,但根本原因应该与我在更大的网络和更复杂的数据中得到完全相同的问题相同。

因为网络很小(甚至几乎都不是网络)我会期待真正的低价值,但我只是从一开始就获得了100%的一致性。评论训练步骤也没有做任何事情。有什么明显的东西我已经忘记了吗?谢谢。

1 个答案:

答案 0 :(得分:4)

在以下一行

correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))

您使用的tf.argmax输出为0,因为您只有一个输出。 Argmax用于获取具有最大值的类别标签,因为此处只有一个类别,所以输出始终为0.

您还必须更换损失,因为softmax用于多个类别。或者,您拥有的最佳选择是one hot对标签进行编码并相应地增加输出数量。