在每个类中使用sparse_softmax_cross_entropy()并使用不相等数量的示例

时间:2018-10-21 06:37:31

标签: tensorflow machine-learning neural-network text-classification

我正在研究基于卷积神经网络的文本分类器。我在sparse_softmax_cross_entropy()张量上使用logits来获得损失,但它会产生以下错误:

InvalidArgumentError (see above for traceback): Received a label value
of -9223372036854775808 which is outside the valid range of [0, 9).

基于我收集到的信息,这是由于我的类中的示例数不相等(我尝试对每个类使用相同数量的示例运行分类器,但最终精度仅为0.11)。鉴于我有16542个示例,分布在9个类中,其中6个类由2001组成,三个类分别有1452、1300和1787个示例,因此示例之间的差异不是那么深刻。如何在不减少训练样本数量的情况下使分类器正常工作。

0 个答案:

没有答案