R的混乱矩阵

时间:2017-08-16 23:11:42

标签: r pattern-recognition

我正在研究模式识别,所以我制作了两类数据并使用我的模型将其分开。 我的数据只能假设两个值,真和假。

为了绘制我的结果我使用了confusionMatrix,当我解释结果时会发生疑问。

confusionMatrix会给我一个错误的准确性吗?例如:

我有10个itens,5个真实和5个假,我的分类器预测8个正确和2个错误,因此1个错误应该是真的并且被归类为假,其他项目应该是假的并且是真的。 在这种情况下,结果是5真和5假。 在R Studio的“帮助”中,我无法看到confusionMatrix是逐项比较还是仅比较可能的结果。

2 个答案:

答案 0 :(得分:0)

虚假准确是什么意思?你是否意味着误报' ?鉴于您的情况,混淆矩阵看起来像(A代表实际,P代表模型预测):

     A.T  A.F
P.T  4    1 
P.F  1    4 

现在您可以在这里计算多种内容:

真阳性率(精确度)= 4/5

真正的负面率(我认为这是你要找的)= 4/5

# where model got wrong 

误报率= 1/5

假阴性率= 1/5

准确性(总体而言是正确的)= 8/10

#to get the above ( not using confusion matrix from `caret` )

a=4 # correct positives
b=1 # incorrect positive
c=4 # correct negative 
d=1 # incorrect negative 

TPR = a/(a+b)
TNR = d/(c+d)
FPR = b/(b+d)
FNR = c/(a+c)
Accuracy = (a+d)/(a+b+c+d)

答案 1 :(得分:0)

我正在使用库“RSNNS”中的confusionMatrix。

我举了一个简单的例子来测试和理解RSNNS的confucionMatrix是如何工作的。

rm(list = ls())
library("RSNNS")


targetsDados <- 1*c(1,0,1,0,1,0,1,0,1,0)
targetsPredictions <- 1*c(0,1,1,0,1,0,1,0,1,0)


confusionMatrix(targetsDados,targetsPredictions)

targetsPredictions有2个不同的值,但是与“aimDados”相同的“0”和“1”数。

此脚本的结果是:

       predictions
targets 0 1
      0 4 1
      1 1 4

所以confusionMatrix给了我多少预测是错误的,逐项比较。