忽略/屏蔽某些标签Softmax交叉熵

时间:2018-04-06 04:43:38

标签: python tensorflow cross-entropy dependency-parsing

在尝试实现这里描述的l2正则化的交叉熵损失A Fast and Accurate Dependency Parser using Neural Networks时,在得到训练中的几个步骤的负损失之后,我得到错误:ValueError: Cannot feed value of shape (48,) for Tensor u'Placeholder_2:0', which has shape '(48, 1)。我的损失如下:

self.loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=self.prediction, labels=self.train_labels)) 
         + 1e-8 * (tf.nn.l2_loss(w1) 
         + tf.nn.l2_loss(w2))

并且在步骤0中是负值。我相信我的问题是某些标签是-1并且应该被忽略,如文中所述:“轻微 变化是我们计算softmax概率 只有在可行的转变中 练习“。在计算损失时,我如何忽略这些标签?

0 个答案:

没有答案