标签: machine-learning neural-network classification loss-function cross-entropy
我正在尝试将交叉熵作为RBF神经网络中的误差函数而不是铰链损耗误差函数来实现。我需要找到每个输出神经元的交叉熵误差,例如铰链损耗误差函数,如下面的公式所示
但是当涉及到交叉熵时,它似乎毫无意义。 这是交叉熵的公式
交叉熵的公式为所有输出神经元(不是每个输出神经元)返回1个缩放器。我查看了一些最近使用交叉熵和soft-max的论文,但找不到与我的问题有关的任何信息。
有没有办法找到每个输出神经元的交叉熵值?