我对朴素贝叶斯算法有问题而且我无法找出原因。我尝试了一个在线教程,所以在开始时我开始创建一些训练数据。在下面的代码中,我只使用很少的训练数据,但这是同样的问题。
pos_tweets = rbind(
c('Ich liebe das auto', 'positive'),
c('Diese Aussicht ist großartig', 'positive'),
c('toller morgen', 'positive'),
c('ich freue mich so', 'positive'),
c('du bist aber lieb, danke', 'positive')
)
neg_tweets = rbind(
c('ich hasse autos', 'negative'),
c('der blick ist horror', 'negative'),
c('voll müde heute', 'negative'),
c('schreckliche stille', 'negative'),
c('er ist ein feind', 'negative')
)
test_tweets = rbind(
c('Schöne Momente erlebt', 'positive'),
c('zusammen macht es gleich doppelt spass', 'positive'),
c('Yeah, toller Tag', 'positive'),
c('Super schöne Umgebung', 'positive'),
c('es zieht ein leichter wind auf, sehr angenehm', 'positive')
)
tweetsbind = rbind(pos_tweets, neg_tweets, test_tweets)
matrix1= create_matrix(tweetsbind[,1], language="german",
removeStopwords=FALSE, removeNumbers=TRUE,
stemWords=FALSE)
mat1 = as.matrix(matrix1)
现在我训练我的模特:
classifier1 = naiveBayes(mat1[1:10,], as.factor(tweetsbind[1:10,2]) )
现在我想用它:
predicted = predict(classifier1, mat1[11:15,]); predicted
当我查看我的模型时,它看起来很不错,因为负面词被标记为负面而正面标记为正面。
但是在使用模型分析测试数据时,它只会输出负数,即使语句明显是正数且使用的单词也存在于训练集中。
我的新代码是:
# search for some twitter data
happy <- searchTwitter(":)",n = 10000, lang ='de')
happy_text <- sapply(happy, function (x) x$getText())
sad <- searchTwitter(":(",n = 10000, lang ='de')
sad_text <- sapply(sad, function (x) x$getText())
# create the matrix
tweets <- rbind(sad_text[1:2500,], happy_text[1:2500,]) # if I use more training data, I get a storage error
tweet <- as.matrix(tweets)
matrix= create_matrix(tweet[,2], language= "german", removeStopwords=FALSE, removeNumbers=TRUE, stemWords=FALSE)
matrixdoc = as.matrix(matrix)
# transform to factor and train the model
X <- as.data.frame(matrixdoc[1:5000,])
X$out <- as.factor(tweet[1:5000,3])
X <- as.data.frame(lapply(X, factor))
classifierstack <- naiveBayes(out ~ ., data=X)
# predict
predicted = predict(classifierstack, mat1[11:15,],type = "raw" )
这就是结果:一切都是否定的,即使我的所有输入都是非常积极的(我改变了它们)。
negativ positiv
[1,] 1 5.828223e-176
[2,] 1 4.110223e-244
[3,] 1 3.274458e-244
[4,] 1 3.534996e-176
[5,] 1 0.000000e+00
如果我试试这个:
> predict(classifierstack, "zeigt", type = "raw" )
negativ positiv
[1,] 0.5 0.5
- &GT;它总是输出0.5 0.5并且最终总是否定的:/
答案 0 :(得分:0)
您缺少训练数据。如果我运行你的代码我得
> predicted = predict(classifier1, mat1[11:15,]); predicted
[1] negative negative negative positive negative
Levels: negative positive
所以只有前两个元素是错误的 - 最后三个元素应该是负面的,正面的和负面的。如果我们查看在 feinde sind doof 中找到的单词的分类器信息,我们会发现
feinde
as.factor(tweetsbind[1:10, 2]) [,1] [,2]
negative 0 0
positive 0 0
sind
as.factor(tweetsbind[1:10, 2]) [,1] [,2]
negative 0 0
positive 0 0
doof
as.factor(tweetsbind[1:10, 2]) [,1] [,2]
negative 0 0
positive 0 0
所以确实没有要分类的信息,它默认为第一级别类别negative
。尝试在您想要预测的单词之间存在重叠的情况下提供更多信息,并且它应该有效。
更新如果您运行
> predicted = predict(classifier1, mat1[11:15,], type="raw"); predicted
negative positive
[1,] 9.999959e-01 4.093637e-06
[2,] 7.329224e-01 2.670776e-01
[3,] 1.000000e+00 4.598781e-11
[4,] 9.898881e-05 9.999010e-01
[5,] 1.000000e+00 1.608783e-16
然后你可以看到个体概率。 &#34;问题&#34;您的拟合是输入被读取为数字(而不是二进制因子),因此您将看不到(行方式)加起来的条件概率。根据{{1}}的手册页,你得到高斯手段和sds。你可以得到这样的条件概率:
naiveBayes
这会给你
X <- as.data.frame(mat1[1:10,])
X$out <- as.factor(tweetsbind[1:10,2])
X <- as.data.frame(lapply(X, factor))
naiveBayes(out ~ ., data=X)
那些是P(lieb | positive)概率,你需要贝叶斯公式来反转概率。
Google&#34;零问题&#34;和&#34;天真的贝叶斯&#34;当训练和测试部分中没有单词时,可以获得略微改进的指示(参见 hab
Y 0
negative 1
positive 1
dich
Y 0
negative 1
positive 1
lieb
Y 0 1
negative 1.0 0.0
positive 0.8 0.2
参数)。