如何使用训练有素的简单前馈神经网络在张量流中预测新数据

时间:2017-04-06 09:57:36

标签: python-3.x machine-learning tensorflow neural-network

如果这听起来像一个愚蠢的问题,请原谅我。假设我有一个用形状[m,n]数据训练的神经网络,我如何用形状数据[1,3]

测试训练好的网络

这是我目前的代码:

n_hidden_1 = 1024
n_hidden_2 = 1024
n = len(test_data[0]) - 1
m = len(test_data)

alpha = 0.005
training_epoch = 1000
display_epoch = 100

train_X = np.array([i[:-1:] for i in test_data]).astype('float32')
train_X = normalize_data(train_X)
train_Y = np.array([i[-1::] for i in test_data]).astype('float32')
train_Y = normalize_data(train_Y)

X = tf.placeholder(dtype=np.float32, shape=[m, n])
Y = tf.placeholder(dtype=np.float32, shape=[m, 1])

weights = {
    'h1': tf.Variable(tf.random_normal([n, n_hidden_1])),
    'h2': tf.Variable(tf.random_normal([n_hidden_1, n_hidden_2])),
    'out': tf.Variable(tf.random_normal([n_hidden_2, 1]))
}
biases = {
    'b1': tf.Variable(tf.random_normal([n_hidden_1])),
    'b2': tf.Variable(tf.random_normal([n_hidden_2])),
    'out': tf.Variable(tf.random_normal([1])),
}

layer_1 = tf.add(tf.matmul(X, weights['h1']), biases['b1'])
layer_1 = tf.nn.sigmoid(layer_1)
layer_2 = tf.add(tf.matmul(layer_1, weights['h2']), biases['b2'])
layer_2 = tf.nn.sigmoid(layer_2)

activation = tf.matmul(layer_2, weights['out']) + biases['out']
cost = tf.reduce_sum(tf.square(activation - Y)) / (2 * m)
optimizer = tf.train.GradientDescentOptimizer(alpha).minimize(cost)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for epoch in range(training_epoch):
        sess.run([optimizer, cost], feed_dict={X: train_X, Y: train_Y})
        cost_ = sess.run(cost, feed_dict={X: train_X, Y: train_Y})
        if epoch % display_epoch == 0:
            print('Epoch:', epoch, 'Cost:', cost_)

如何测试新数据?对于回归,我知道我可以对数据[0.4, 0.5, 0.1]

使用类似的东西
predict_x = np.array([0.4, 0.5, 0.1], dtype=np.float32).reshape([1, 3])
predict_x = (predict_x - mean) / std
predict_y = tf.add(tf.matmul(predict_x, W), b)
result = sess.run(predict_y).flatten()[0]

我如何使用神经网络做同样的事情?

1 个答案:

答案 0 :(得分:0)

如果您使用

X = tf.placeholder(dtype=np.float32, shape=[None, n])
Y = tf.placeholder(dtype=np.float32, shape=[None, 1])

这两个占位符的第一维将具有可变大小,即在训练时它可以与测试时(例如1)不同(例如720)。这通常被称为具有“可变批量”,因为在培训和测试期间具有不同的批量大小是很常见的。

在这一行:

cost = tf.reduce_sum(tf.square(activation - Y)) / (2 * m)

您正在使用现在可变的m。为了使这一行适用于可变批量大小(因为m现在在执行图形之前是未知的),你应该做类似的事情:

m = tf.shape(X)[0]
cost = tf.reduce_sum(tf.square(activation - Y)) / (tf.multiply(m, 2))

tf.shape评估X的动态形状,即它在运行时的形状。