我在TensorFlow文档中找不到该问题的答案。我曾经读过,应该从tf.nn
函数中增加损失,但是对于tf.losses
中的函数则没有必要。因此:
我什么时候应该使用tf.losses.add_loss()
?
示例:
loss = tf.reduce_mean(tf.nn.sparse_softmax_corss_entropy_with_logits
(labels=ground_truth, logits=predictions))
tf.losses.add_loss(loss) <-- when is this required?
谢谢。
答案 0 :(得分:1)
人们会使用这种方法来记录用户定义的损失。
也就是说,如果您创建了一个定义您的损失的张量(例如,my_loss = tf.mean(output)
),则可以使用此方法将其添加到损失收集中。如果您不手动跟踪所有损失,则可能要这样做。例如,如果您使用的是类似tf.losses.get_total_loss()
的方法。
在tf.losses.add_loss
内部非常简单:
def add_loss(loss, loss_collection=ops.GraphKeys.LOSSES):
if loss_collection and not context.executing_eagerly():
ops.add_to_collection(loss_collection, loss)