我有一个包含6个类的数据集,我想绘制多类分类的ROC曲线。 Achim Zeileis给出的第一个答案非常好。
ROC curve in R using rpart package?
但这只适用于二项分类。我得到的错误是Error in prediction, Number of classes is not equal to 2
。是否有人为多类别分类做过这个?
这是我想要做的一个简单的例子。 data< - read.csv(“colors.csv”)
让我们说data$cType
的 6
值(或级别)为(红色,绿色,蓝色,黄色,黑色和白)
无论如何为这6个类绘制ROC曲线?任何超过2的类的工作示例都将受到赞赏。
答案 0 :(得分:0)
在满足相同要求的同时回答旧问题 - 我发现scikit文档很好地解释了一些方法。
http://scikit-learn.org/stable/auto_examples/model_selection/plot_roc.html
提到的方法包括:
从上面的链接中复制示例,其中说明了使用libs的一个与所有和微观平均:
print(__doc__)
import numpy as np
import matplotlib.pyplot as plt
from itertools import cycle
from sklearn import svm, datasets
from sklearn.metrics import roc_curve, auc
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import label_binarize
from sklearn.multiclass import OneVsRestClassifier
from scipy import interp
# Import some data to play with
iris = datasets.load_iris()
X = iris.data
y = iris.target
# Binarize the output
y = label_binarize(y, classes=[0, 1, 2])
n_classes = y.shape[1]
# Add noisy features to make the problem harder
random_state = np.random.RandomState(0)
n_samples, n_features = X.shape
X = np.c_[X, random_state.randn(n_samples, 200 * n_features)]
# shuffle and split training and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.5,
random_state=0)
# Learn to predict each class against the other
classifier = OneVsRestClassifier(svm.SVC(kernel='linear', probability=True,
random_state=random_state))
y_score = classifier.fit(X_train, y_train).decision_function(X_test)
# Compute ROC curve and ROC area for each class
fpr = dict()
tpr = dict()
roc_auc = dict()
for i in range(n_classes):
fpr[i], tpr[i], _ = roc_curve(y_test[:, i], y_score[:, i])
roc_auc[i] = auc(fpr[i], tpr[i])
# Compute micro-average ROC curve and ROC area
fpr["micro"], tpr["micro"], _ = roc_curve(y_test.ravel(), y_score.ravel())
roc_auc["micro"] = auc(fpr["micro"], tpr["micro"])
我实际上正在寻找一个Javascript解决方案(使用https://github.com/mljs/performance)所以我还没有用上面的库实现它,但它是我发现的最有启发性的例子远。
答案 1 :(得分:0)
我知道这是一个古老的问题,但是唯一的答案是使用Python编写的事实令我非常困扰,因为该问题专门要求使用R解决方案。
从下面的代码中可以看到,我正在使用pROC::multiclass.roc()
函数。使其生效的唯一要求是,预测矩阵的列名称匹配真实的类(real_values
)。
第一个示例生成随机预测。第二个产生更好的预测。第三个生成完美的预测(即始终将最高概率分配给真实的类别)。
library(pROC)
set.seed(42)
head(real_values)
real_values <- matrix( c("class1", "class2", "class3"), nc=1 )
# [,1]
# [1,] "class1"
# [2,] "class2"
# [3,] "class3"
# Random predictions
random_preds <- matrix(rbeta(3*3,2,2), nc=3)
random_preds <- sweep(random_preds, 1, rowSums(a1), FUN="/")
colnames(random_preds) <- c("class1", "class2", "class3")
head(random_preds)
# class1 class2 class3
# [1,] 0.3437916 0.6129104 0.4733117
# [2,] 0.6016169 0.4700832 0.9364681
# [3,] 0.6741742 0.8677781 0.4823129
multiclass.roc(real_values, random_preds)
#Multi-class area under the curve: 0.1667
better_preds <- matrix(c(0.75,0.15,0.5,
0.15,0.5,0.75,
0.15,0.75,0.5), nc=3)
colnames(better_preds) <- c("class1", "class2", "class3")
head(better_preds)
# class1 class2 class3
# [1,] 0.75 0.15 0.15
# [2,] 0.15 0.50 0.75
# [3,] 0.50 0.75 0.50
multiclass.roc(real_values, better_preds)
#Multi-class area under the curve: 0.6667
perfect_preds <- matrix(c(0.75,0.15,0.5,
0.15,0.75,0.5,
0.15,0.5,0.75), nc=3)
colnames(perfect_preds) <- c("class1", "class2", "class3")
head(perfect_preds)
multiclass.roc(real_values, perfect_preds)
#Multi-class area under the curve: 1