我可以将SGD与多项式朴素贝叶斯一起使用吗?

时间:2016-11-28 12:16:58

标签: scikit-learn bayesian cross-validation text-classification naivebayes

我想了解我是否可以以及是否有效的方法来培训您的MNB模型与SGD。我的申请是文本分类。在sklearn中,我发现没有可用的MNB,默认情况下它是SVM,但NB是线性模型,不是吗?

因此,如果我的似然参数(使用拉普拉斯平滑)可以估算为 MNB likelihood param estimation

我可以使用SGD更新参数并最小化成本函数吗?

enter image description here

如果SGD与此无关,请告诉我。提前谢谢。

更新: 所以我得到了答案并希望我说得对,MNB的参数通过给定输入文本中的出现一词更新(如tf-idf)。但我仍然不清楚为什么我们不能将SGD用于MNB培训。如果通过明确的描述或某些数学解释对其进行解释,我就会理解它。感谢

1 个答案:

答案 0 :(得分:0)

  

在sklearn,我发现没有可用的MNB

多项式朴素贝叶斯在scikit-learn中实现。没有梯度下降使用。该实现仅使用相对频率计数(通过平滑)来一次性找到模型的参数(这是适合MNB模型的标准和最有效的方式):

http://scikit-learn.org/stable/modules/naive_bayes.html