我正在使用 Google的TensorFlow 开展深度学习模式。该模型应用于细分和标记场景。
问题: 我应该将均值平均值或argmax应用于我的最后一层,使其形状变为 [256,256,1] ,然后循环遍历每个像素并进行分类,好像我正在对 256x256 实例进行分类?如果答案是肯定的,那么,如果没有,还有什么其他选择?
答案 0 :(得分:12)
要应用softmax并使用交叉熵损失,您必须保持完整您的网络的最终输出 batch_size x 256 x 256 x 33 。因此,无法使用平均值或argmax,因为它会破坏网络的输出概率。
您必须循环遍历所有 batch_size x 256 x 256 像素,并对此像素的预测应用交叉熵损失。使用内置函数tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels)
很容易。
在应用以下代码之前发出一些警告from the doc:
诀窍是使用batch_size * 256 * 256
作为函数所需的批量大小。我们会将logits
和labels
重新整理为此格式。
这是我使用的代码:
inputs = tf.placeholder(tf.float32, [batch_size, 256, 256, 3]) # input images
logits = inference(inputs) # your outputs of shape [batch_size, 256, 256, 33] (no final softmax !!)
labels = tf.placeholder(tf.float32, [batch_size, 256, 256]) # your labels of shape [batch_size, 256, 256] and type int64
reshaped_logits = tf.reshape(logits, [-1, 33]) # shape [batch_size*256*256, 33]
reshaped_labels = tf.reshape(labels, [-1]) # shape [batch_size*256*256]
loss = sparse_softmax_cross_entropy_with_logits(reshaped_logits, reshaped_labels)
然后,您可以针对该损失应用优化程序。
tf.sparse_softmax_cross_entropy_with_logits
的{{3}}表示它现在接受logits
的任何形状,因此无需重新设定张量(感谢@chillinger):
inputs = tf.placeholder(tf.float32, [batch_size, 256, 256, 3]) # input images
logits = inference(inputs) # your outputs of shape [batch_size, 256, 256, 33] (no final softmax !!)
labels = tf.placeholder(tf.float32, [batch_size, 256, 256]) # your labels of shape [batch_size, 256, 256] and type int64
loss = sparse_softmax_cross_entropy_with_logits(logits, labels)