我正在研究模式识别,所以我制作了两类数据并使用我的模型将其分开。 我的数据只能假设两个值,真和假。
为了绘制我的结果我使用了confusionMatrix,当我解释结果时会发生疑问。
confusionMatrix会给我一个错误的准确性吗?例如:
我有10个itens,5个真实和5个假,我的分类器预测8个正确和2个错误,因此1个错误应该是真的并且被归类为假,其他项目应该是假的并且是真的。 在这种情况下,结果是5真和5假。 在R Studio的“帮助”中,我无法看到confusionMatrix是逐项比较还是仅比较可能的结果。
答案 0 :(得分:0)
虚假准确是什么意思?你是否意味着误报' ?鉴于您的情况,混淆矩阵看起来像(A代表实际,P代表模型预测):
A.T A.F
P.T 4 1
P.F 1 4
现在您可以在这里计算多种内容:
真阳性率(精确度)= 4/5
真正的负面率(我认为这是你要找的)= 4/5
# where model got wrong
误报率= 1/5
假阴性率= 1/5
准确性(总体而言是正确的)= 8/10
#to get the above ( not using confusion matrix from `caret` )
a=4 # correct positives
b=1 # incorrect positive
c=4 # correct negative
d=1 # incorrect negative
TPR = a/(a+b)
TNR = d/(c+d)
FPR = b/(b+d)
FNR = c/(a+c)
Accuracy = (a+d)/(a+b+c+d)
答案 1 :(得分:0)
我正在使用库“RSNNS”中的confusionMatrix。
我举了一个简单的例子来测试和理解RSNNS的confucionMatrix是如何工作的。
rm(list = ls())
library("RSNNS")
targetsDados <- 1*c(1,0,1,0,1,0,1,0,1,0)
targetsPredictions <- 1*c(0,1,1,0,1,0,1,0,1,0)
confusionMatrix(targetsDados,targetsPredictions)
targetsPredictions有2个不同的值,但是与“aimDados”相同的“0”和“1”数。
此脚本的结果是:
predictions
targets 0 1
0 4 1
1 1 4
所以confusionMatrix给了我多少预测是错误的,逐项比较。