我试图使用张量流来学习卷积神经网络,我使用下面的代码来创建我的网络。
# network weights
W_conv1 = weight_variable([8, 8, 4, 32])
b_conv1 = bias_variable([32])
W_conv2 = weight_variable([4, 4, 32, 64])
b_conv2 = bias_variable([64])
W_conv3 = weight_variable([3, 3, 64, 64])
b_conv3 = bias_variable([64])
W_fc1 = weight_variable([1600, 512])
b_fc1 = bias_variable([512])
W_fc2 = weight_variable([512, ACTIONS])
b_fc2 = bias_variable([ACTIONS])
# input layer
s = tf.placeholder("float", [None, 80, 80, 4])
# hidden layers
h_conv1 = tf.nn.relu(conv2d(s, W_conv1, 4) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2, 2) + b_conv2)
#h_pool2 = max_pool_2x2(h_conv2)
h_conv3 = tf.nn.relu(conv2d(h_conv2, W_conv3, 1) + b_conv3)
#h_pool3 = max_pool_2x2(h_conv3)
#h_pool3_flat = tf.reshape(h_pool3, [-1, 256])
h_conv3_flat = tf.reshape(h_conv3, [-1, 1600])
h_fc1 = tf.nn.relu(tf.matmul(h_conv3_flat, W_fc1) + b_fc1)
# readout layer
readout = tf.matmul(h_fc1, W_fc2) + b_fc2
这个网络以[80,80,4]对象输出一个ACTIONS预测;(ACTIONS类的数量)
我的问题是如何创建一个在[a,b]
之间输出值的网络答案 0 :(得分:0)
如果[a,b]是分类的,即你有离散类(总共n个),你需要在读出层中有n个神经元,每个神经元对应一个代表其概率的给定类。标准方法是在logits上使用sigmoid cross entropy(在tensorflow的情况下使用tf.nn.sigmoid_cross_entropy_with_logits)。
如果[a,b]是连续的(我认为这可能不是你想要做的事情),那么它就变成了回归问题。因此,如果有足够的数据和适当的损失函数(平方误差)以及一些正则化,则应确保输出位于可接受的范围内,或者始终可以将一个数值范围映射到另一个数值范围。
如果这些都没有意义,那么在深入研究神经网络之前,你需要学习一些基本的机器学习。