Scikit-learn:precision_recall_fscore_support返回奇怪的结果

时间:2016-02-05 20:19:50

标签: python machine-learning scikit-learn classification text-classification

我正在进行一些文本缩放/分类,并尝试使用precision_recall_fscore_support模块中的sklearn.metrics函数来评估性能。我不知道如何创建一个真正的小例子来重现这个问题,但也许有人可以提供帮助,因为这是我遗漏的明显事实。

上述函数返回对每个类的支持。文档说明

  

support:int(如果average不是None)或int数组,shape = [n_unique_labels] :   y_true中每个标签的出现次数。

但在我的情况下,返回支持的类数与测试数据中不同类的数量不同。

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5)

classifier = svm.SVC(kernel="linear")
classifier.fit(X_train, y_train)

y_pred = classifier.predict(X_test)
prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred)

print(len(classifier.classes_)) # prints 18
print(len(supp))                # prints 19
print(len(np.unique(y_test)))   # prints 18

这怎么可能?如何支持不在数据中的类?

1 个答案:

答案 0 :(得分:0)

我不确定问题是什么,但在我的情况下,分类器学习的类与测试数据中出现的类之间似乎不匹配。可以通过显式命名它们来强制函数计算正确类的性能度量。

prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred, labels=classifier.classes_)