我有一个x
类型的张量tf.float32
,我想对所有条目应用softmax。不幸的是,内置函数只能沿指定轴应用softmax。
我想到的解决方案:
e = tf.exp(x)
softmaxed = e / tf.reduce_sum(e)
不不起作用-如果x
的条目太大(例如100),则e
无法正确计算。
答案 0 :(得分:1)
由于softmax(x) = softmax(x-c)
对于任何常量c
(exp(-c)
在所有指数中都是因子,并且在分子和定界符之间抵消),因此您可以通过将数值减去来以数值稳定的方式应用softmax一个适当的常数。减去所有条目的最大值表示所有指数将在0到1之间,并且可以稳定地计算结果。试试看:
max_x = tf.reduce_max(x)
e = tf.exp(x-max_x)
softmaxed = e / tf.reduce_sum(e)