了解张量流中logit和标签的描述

时间:2018-07-16 08:17:33

标签: tensorflow machine-learning deep-learning classification softmax

这是张量流关于tf.nn.sparse_softmax_cross_entropy_with_logits中的logit和label参数的说法

  

Args:     _sentinel:用于防止位置参数。内部,请勿使用。

     

标签:形状为Tensor的{​​{1}}(其中[d_0, d_1, ..., d_{r-1}]是等级       r和结果)和dtype labelsint32int64中的每个条目       必须是labels中的索引。其他值将引发       此操作在CPU上运行时发生异常,并返回[0, num_classes)       GPU上的损失和梯度行。

     

logits:形状的未缩放对数概率       NaN和dtype [d_0, d_1, ..., d_{r-1}, num_classes]float32。     name:操作的名称(可选)。

我研究了相当多的机器学习和深度学习分类问题,并且遇到或什至想到的唯一输出形状是[无,1]或[无,类数](如果稀疏,实施未实现。)

请阐明在哪里:float64(形状为Tensor的标签和'Tensor'(对数)形状的未缩放对数概率     [d_0, d_1, ..., d_{r-1}]来自。也许只是一个例子就足够了

1 个答案:

答案 0 :(得分:0)

  

我一直在研究机器学习和深度学习分类问题,并且碰到甚至想到的唯一输出形式是[无,1]或[无,类数]

这正是您所描述的。

  

标签:形状为[d_0,d_1,...,d_ {r-1}]的张量(其中r是标签和结果的等级)和dtype int32或int64。标签中的每个条目都必须是[0,num_classes)中的索引。

d_0,d_1 ... d_ {r-1}是批次的示例。在这里,这对应于形状为[r,1]的张量,其中r是您的batch_size。

  

logits:形状为[d_0,d_1,...,d_ {r-1},num_classes]的未缩放日志概率

这里同样,这对应于形状为[r,num_classes]的张量。

当我们定义模型时,r = None,因为我们不希望图形依赖于批量大小。