Naive Bayes v / s Logistic回归?哪个更受“条件独立”假设的约束?

时间:2017-08-24 06:33:34

标签: machine-learning artificial-intelligence probability logistic-regression naivebayes

根据我的理解, Logistic回归 Naive Bayes 的扩展。 假设,

X = (X_1, X_2........X_N); Y = {0, 1}, each X_i is i.i.d and 
the P(X_i|Y=y_k) is a Gaussian Distribution.

因此,为了创建线性决策曲面,我们假设每个pdf P(X_i|y_k)具有方差(sigma),而不依赖于Y的值{{1 }}
sigma_(i,k) = sigma_i

最后,我们最终学习了以下方程式中代表线性决策曲面的系数((i --> X_i, k --> y_k)):

w_0, w_i

即使线性回归系数(P(Y=0|X)/P(Y=1|X) = w_0 + sum_i(w_i*X_i) (Linear Decision Surface) )的推导涉及条件无关w_0, w_i的假设,

  1. 为什么说从训练数据中学习这些系数从条件indep 稍微更自由。假设与学习常规贝叶斯分布系数(X_i given Y)?
  2. 相比较

    我在关注this course here时遇到了这个问题。

    任何澄清/建议都会非常有帮助。 感谢

0 个答案:

没有答案