朴素贝叶斯的假设和逻辑回归

时间:2019-12-02 07:28:51

标签: machine-learning classification naivebayes

我试图了解朴素贝叶斯和Logistic回归所需假设的差异。

据我所知,朴素贝叶斯和逻辑回归应该具有彼此独立的特征,即预测变量不应具有任何多重共线性。

并且仅在Logistic回归中,遵循自变量和对数奇数的线性关系。

纠正我是否有错,天真与逻辑回归之间是否存在其他假设/差异

3 个答案:

答案 0 :(得分:0)

你是对的杜尔加。他们两个的表现也差不多。 不同之处在于NB假设正态分布,而逻辑回归不假设正态分布。至于速度,NB要快得多。

答案 1 :(得分:0)

逻辑回归,根据this source

1)要求观测值彼此独立。换句话说,观察结果不应来自重复的测量或匹配的数据。

2)要求因变量为二进制,而序数逻辑回归要求因变量为序数。

3)在自变量之间需要很少或没有多重共线性。这意味着自变量之间的相关度不应过高。

4)假设自变量和对数几率的线性。

5)通常需要较大的样本量。一般准则是,模型中的每个自变量至少需要10个案例,并且结果最少。

答案 2 :(得分:0)

tl; dr:

朴素贝叶斯需要变量的条件独立性。回归族需要该特征不高度相关以具有可解释的/非常适合的模型。

朴素贝叶斯要求这些功能满足“条件独立”的要求,这意味着:

enter image description here

这与“回归族”要求非常不同。他们需要的是变量不是“相关的”。即使特征相关,回归模型也可能只会变得过拟合或难以解释。因此,如果使用适当的正则化,您仍将获得良好的预测。