我是深度学习和numpy的初学者,并尝试在本教程<{https://medium.com/@14prakash/back-propagation-is-very-simple-who-made-it-complicated-97b794c97e5c>研究反向传播和numpy代码的过程中实现numpy代码。
我正在尝试在图片上方的numpy中实现softmax的派生。 我发现带有交叉熵损失函数的softmax的导数非常清楚。但是我只想实现Softmax的派生代码。 是否有任何有用的Numpy函数可以帮助实现该公式? 谢谢。