FF神经网络和二进制分类

时间:2015-08-18 23:05:29

标签: neural-network classification regression feed-forward

每当我针对二元分类问题训练FeedForward神经网络时,网络返回浮点值。这背后的理论是什么?这可以解释为概率吗?例如,如果净回报0.7相当于说该值为1且不为0的概率为70%?那么我应该只是缩放浮点值并将阈值定义为0或1?

2 个答案:

答案 0 :(得分:0)

我假设您使用sigmoid函数作为激活函数?

它将返回该范围内的值。当你和我一起玩的时候,我把它视为某个任意范围的百分比。如果您可以容忍一点点错误,它可以是二进制结果。当我训练逻辑门时,经过相当成功的训练后,1和1导致了0.9999999;这几乎是1.你可以在那个点上围绕它。

我在一两个月前发了一篇关于此事的帖子。如果我能找到它,我会链接到它。

My question

答案 1 :(得分:0)

当您针对二元问题训练NN时,如果您不使用二进制激活函数,则答案将是概率(如果您使用sigmoid):属于类的实例概率

我从不使用阈值或二元激活函数,因为研究概率总是很有趣。例如,您可能有一个错误分类的实例,但您发现其概率大约为0.5。因此,NN不确定要在实例上固定的类。相反,如果一个实例被错误分类并且具有很高的概率(接近0或1),那么这是一个强烈的错误,你应该认真理解为什么它被错误分类。