Naive Bayes是否具有生成性?

时间:2017-12-27 18:09:29

标签: machine-learning machine-learning-model

我正在编写一份文件,其中应包含使用朴素贝叶斯(生成)和逻辑回归(辨别)模型进行文本分类的主要区别。

在我的研究中,我遇到了朴素贝叶斯模型的这个定义:https://nlp.stanford.edu/IR-book/html/htmledition/naive-bayes-text-classification-1.html

  

文档d在课堂c中的概率计算为......其中p(tk|c) 条件概率 tk中的术语c出现在课程p(x,y) ...


当我得到比较Generative和Discriminative模型的部分时,我发现StackOverflow上的这个解释被接受了:What is the difference between a Generative and Discriminative Algorithm?

  

生成模型 学习 联合概率 分布p(y|x) < em>判别模型 学习 条件概率 分布MKMapView - 您应该将其视为“给定x的概率”


在这一点上我感到困惑:朴素贝叶斯是一个生成模型并使用条件概率,但与此同时,判别模型被描述为好像他们学习了条件概率而不是生成模型的联合概率。


有人可以对此有所了解吗?

谢谢!

1 个答案:

答案 0 :(得分:0)

从某种意义上来说,这是生成的,您无需直接对后shift进行建模,而是要学习联合概率p(y|x)的模型,该模型也可以表示为p(x,y) < em>(之前的可能性时间),然后通过Bayes rule,您寻求找到最可能的 y

在这种情况下,我可以推荐的一本好书是:“关于判别式与生成式分类器:逻辑回归和朴素贝叶斯的比较” (Ng & Jordan 2004)