我正在进行一些文本缩放/分类,并尝试使用precision_recall_fscore_support
模块中的sklearn.metrics
函数来评估性能。我不知道如何创建一个真正的小例子来重现这个问题,但也许有人可以提供帮助,因为这是我遗漏的明显事实。
上述函数返回对每个类的支持。文档说明
support:int(如果average不是None)或int数组,shape = [n_unique_labels] : y_true中每个标签的出现次数。
但在我的情况下,返回支持的类数与测试数据中不同类的数量不同。
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5)
classifier = svm.SVC(kernel="linear")
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred)
print(len(classifier.classes_)) # prints 18
print(len(supp)) # prints 19
print(len(np.unique(y_test))) # prints 18
这怎么可能?如何支持不在数据中的类?
答案 0 :(得分:0)
我不确定问题是什么,但在我的情况下,分类器学习的类与测试数据中出现的类之间似乎不匹配。可以通过显式命名它们来强制函数计算正确类的性能度量。
prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred, labels=classifier.classes_)