使用scikit-learn 0.10
为什么以下是一些简单的代码片段:
from sklearn.naive_bayes import *
import sklearn
from sklearn.naive_bayes import *
print sklearn.__version__
X = np.array([ [1, 1, 1, 1, 1],
[0, 0, 0, 0, 0] ])
print "X: ", X
Y = np.array([ 1, 2 ])
print "Y: ", Y
clf = BernoulliNB()
clf.fit(X, Y)
print "Prediction:", clf.predict( [0, 0, 0, 0, 0] )
打印出“1”的答案?在[0,0,0,0,0] =>上训练模型2我期待“2”作为答案。
为什么用
代替Y.Y = np.array([ 3, 2 ])
给另一个班级“2”作为答案(正确的)?这不仅仅是一个类标签吗?
有人可以对此有所了解吗?
答案 0 :(得分:8)
默认情况下,alpha,平滑参数为1。正如msw所说,你的训练集非常小。由于平滑,不会留下任何信息。如果将alpha设置为非常小的值,则应该看到预期的结果。
答案 1 :(得分:5)
您的训练集太小,可以通过
显示clf.predict_proba(X)
产生
array([[ 0.5, 0.5],
[ 0.5, 0.5]])
表明分类器将所有分类视为等概率。与BernoulliNB的predict_proba()
文档中显示的示例进行比较:
array([[ 2.71828146, 1.00000008, 1.00000004, 1.00000002, 1. ],
[ 1.00000006, 2.7182802 , 1.00000004, 1.00000042, 1.00000007],
[ 1.00000003, 1.00000005, 2.71828149, 1. , 1.00000003],
[ 1.00000371, 1.00000794, 1.00000008, 2.71824811, 1.00000068],
[ 1.00000007, 1.0000028 , 1.00000149, 2.71822455, 1.00001671],
[ 1. , 1.00000007, 1.00000003, 1.00000027, 2.71828083]])
我将numpy.exp()
应用于结果,以使其更具可读性。显然,概率甚至不接近相等,实际上很好地对训练集进行了分类。