我对神经网络很陌生,并且想知道为什么RNN的所有例子,特别是charnnn使用交叉熵损失函数作为它们的损失函数。我用谷歌搜索,但似乎在这种情况下似乎没有遇到任何有关该功能的讨论。我被要求激励它的使用并查看它的优点和缺点,因此我非常感谢所有可以阅读的论文或资料。
答案 0 :(得分:1)
许多序列到序列的RNN,特别是char-rnn,一次产生一个项目的结果,换句话说,通过在每个时间步骤解决分类问题。
交叉熵损失是main choice进行分类时,无论是卷积神经网络(example),递归神经网络(example)还是普通的前馈神经网络(example)。如果您要编写解决回归问题的RNN ,您将使用不同的损失函数,例如L2丢失。
上述所有示例均使用tensorflow和tf.nn.softmax_cross_entropy_with_logits
丢失。