我正在尝试使用Logistic Regression from SciKit.预测一组标签我的数据确实是不平衡的(还有很多' 0'而不是' 1'标签)所以我有在交叉验证步骤中使用F1 score metric来平衡"结果。
[Input]
X_training, y_training, X_test, y_test = generate_datasets(df_X, df_y, 0.6)
logistic = LogisticRegressionCV(
Cs=50,
cv=4,
penalty='l2',
fit_intercept=True,
scoring='f1'
)
logistic.fit(X_training, y_training)
print('Predicted: %s' % str(logistic.predict(X_test)))
print('F1-score: %f'% f1_score(y_test, logistic.predict(X_test)))
print('Accuracy score: %f'% logistic.score(X_test, y_test))
[Output]
>> Predicted: [0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0]
>> Actual: [0 0 0 1 0 0 0 0 0 1 1 0 0 1 0 0 0 0 0 0 0 1 1]
>> F1-score: 0.285714
>> Accuracy score: 0.782609
>> C:\Anaconda3\lib\site-packages\sklearn\metrics\classification.py:958:
UndefinedMetricWarning:
F-score is ill-defined and being set to 0.0 due to no predicted samples.
我当然知道这个问题与我的数据集有关:它太小了(它只是真实数据集的一个样本)。但是,任何人都可以解释" UndefinedMetricWarning"警告,我看到了?窗帘后面究竟发生了什么?
答案 0 :(得分:4)
它似乎是一个已知的错误here已修复,我想你应该尝试更新sklearn。
答案 1 :(得分:1)
但是,有人可以解释我所看到的“UndefinedMetricWarning”警告的含义吗?窗帘后面究竟发生了什么?
https://stackoverflow.com/a/34758800/1587329
详细描述了这一点https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/metrics/classification.py
F1 = 2 *(精确*召回)/(精确+召回)
precision = TP /(TP + FP)正如你刚才所说,如果预测器没有 完全预测正类 - 精度为0。
召回= TP /(TP + FN),如果预测变量不能预测为正数 class - TP为0 - 召回为0。
所以现在你要划分0/0。
要解决加权问题(分类器很容易(几乎)总是预测更普遍的类),您可以使用class_weight="balanced"
:
logistic = LogisticRegressionCV(
Cs=50,
cv=4,
penalty='l2',
fit_intercept=True,
scoring='f1',
class_weight="balanced"
)
“平衡”模式使用y的值自动调整输入数据中与类频率成反比的权重
n_samples / (n_classes * np.bincount(y))
。