tensorflow使用我自己的get_next_minibatch进行mnist示例

时间:2017-03-25 23:21:40

标签: python numpy machine-learning tensorflow

我刚开始使用tensorflow,我按照MNIST数据集上的教程示例进行操作。它进展顺利,我的准确率大约为90%。

但是在用我自己的版本替换next_batch之后,结果比过去更糟糕,通常是50%。

我没有使用下载和解析的Tensorflow数据,而是从此website下载数据集。用numpy得到我想要的东西。

df = pd.read_csv('mnist_train.csv', header=None)
X = df.drop(0,1)
Y = df[0]
temp = np.zeros((Y.size, Y.max()+1))
temp[np.arange(Y.size),Y] = 1
np.save('X',X)
np.save('Y',temp)

对测试数据做同样的事情,然后按照教程,没有任何改变

x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
X = np.load('X.npy')
Y = np.load('Y.npy')
X_test = np.load('X_test.npy')
Y_test = np.load('Y_test.npy')
BATCHES = 1000


W = tf.Variable(tf.truncated_normal([784,10], stddev=0.1))

# W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)

cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))
train_step = tf.train.GradientDescentOptimizer(0.05).minimize(cross_entropy)

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))


sess = tf.InteractiveSession()
tf.global_variables_initializer().run()

这里是我自己的get_mini_batch,我将原始数据的索引混洗,然后每次从中获取100个数据,这似乎与示例代码完全相同。唯一的区别是数据我扔掉了尾部的一些数据。

pos = 0
idx = np.arange(X.shape[0])
np.random.shuffle(idx)


for _ in range(1000):
    batch_xs, batch_ys = X[idx[range(pos,pos+BATCHES)],:], Y[idx[range(pos,pos+BATCHES)],]
    if pos+BATCHES >= X.shape[0]:
        pos = 0
        idx = np.arange(X.shape[0])
        np.random.shuffle(idx)
    pos += BATCHES
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
print(sess.run(accuracy, feed_dict={x: X_test, y_: Y_test}))

令我困惑的是为什么我的版本比教程更差。

1 个答案:

答案 0 :(得分:0)

就像lejilot所说的那样,我们应该在将数据推入神经网络之前对数据进行规范化。 See this post