这是张量流关于tf.nn.sparse_softmax_cross_entropy_with_logits
中的logit和label参数的说法
Args: _sentinel:用于防止位置参数。内部,请勿使用。
标签:形状为
Tensor
的{{1}}(其中[d_0, d_1, ..., d_{r-1}]
是等级r
和结果)和dtypelabels
或int32
。int64
中的每个条目 必须是labels
中的索引。其他值将引发 此操作在CPU上运行时发生异常,并返回[0, num_classes)
GPU上的损失和梯度行。logits:形状的未缩放对数概率
NaN
和dtype[d_0, d_1, ..., d_{r-1}, num_classes]
或float32
。 name:操作的名称(可选)。
我研究了相当多的机器学习和深度学习分类问题,并且遇到或什至想到的唯一输出形状是[无,1]或[无,类数](如果稀疏,实施未实现。)
请阐明在哪里:float64
(形状为Tensor
的标签和'Tensor'(对数)形状的未缩放对数概率
[d_0, d_1, ..., d_{r-1}]
来自。也许只是一个例子就足够了
答案 0 :(得分:0)
我一直在研究机器学习和深度学习分类问题,并且碰到甚至想到的唯一输出形式是[无,1]或[无,类数]
这正是您所描述的。
标签:形状为[d_0,d_1,...,d_ {r-1}]的张量(其中r是标签和结果的等级)和dtype int32或int64。标签中的每个条目都必须是[0,num_classes)中的索引。
d_0,d_1 ... d_ {r-1}是批次的示例。在这里,这对应于形状为[r,1]的张量,其中r是您的batch_size。
logits:形状为[d_0,d_1,...,d_ {r-1},num_classes]的未缩放日志概率
这里同样,这对应于形状为[r,num_classes]的张量。
当我们定义模型时,r = None,因为我们不希望图形依赖于批量大小。