标签: deep-learning probability rnn softmax
我正在斯坦福大学的课程 CS231 上课。我无法理解 RNN 的观点,为什么Softmax无法选择字符 o 的最高概率为0.84(在所附示例中) ),而不是字符 e 的0.13。解释将不胜感激。
答案 0 :(得分:0)
我还没有真正看过演讲,但是我认为最上面的'e'是预期的输出(还有'l','l','o')。初始权重给出的结果不够好(给出“ o”而不是“ e”)。在训练网络时,权重将变得更加成熟,最终您将看到概率的变化,而第一个预测最终将导致'e'