在选择假设函数的基础上预测决策边界

时间:2017-09-23 18:04:07

标签: machine-learning

在第3周的课程中的机器学习课程中,Andrew-Ng讨论Decision boundary并在1:00声明 -

hθ(x)≥0.5→y = 1

(假设如果值大于或等于0.5,则假设y = 1)

hθ(x)<0.5→y = 0

(假设如果值小于0.5,则假设y = 0)

其中hθ(x)是θtX的S形滤波。

怀疑 -

如果是这种情况,则Pr(y = 1)将始终大于或等于0.5,因为假设仅当hθ(x)≥0.5并且认为该hθ(x)时y = 1被预测是在4:45被讨论here时y = 1的概率。 Pr(y = 0)的情况也是如此,假设当hθ(x)<0.5时预测它,因此它的值总是小于0.5。

但情况并非如此,y = 0和y = 1的概率应该在0到1之间。

2 个答案:

答案 0 :(得分:1)

我担心对被建模的内容和/或因变量的概率存在误解。

首先,我们谈论的是条件概率P(y | x),而不是边缘P(y),其次是:

h(x) = P(y=1|x) = 1-P(y=0|x)

没有声称“当h(x)<0.5”时,P(y = 0 | x)的概率被建模,这是错误的。该模型同时提供两个量,它预测P(y = 1 | x)= h(x)并同时(由于概率的基本属性)P(y = 0 | x)= 1-h (X)。这也是为什么我们有0.5门槛,因为当你预测课程时你试图回答的是什么是最可能的课程,并注意到:

P(y=1|x) > P(y=0|x) <-> h(x) > 1-h(x) <-> 2h(x) > 1 <-> h(x) > 0.5

这并不意味着一个或另一个类别的概率“总是大于0.5”或总是更小 - 只有一个概率,由h(x)建模,而0.5来自上面的等式以得到最终标签,而不是它的概率。

答案 1 :(得分:0)

我认为当你说类p的概率(y = 1)时会出现疑问,我们只计算给定数据点x的每个类的条件概率,同样h(x)= 0.5意味着数据点的机会相等在一个类中,并以图形方式表示分割两个类的直线。