假设我只有1个正面训练分类器。有没有办法训练模型与scikit学习只有一个积极? (例如类似于示例SVM)。
目前我有以下内容:
scores = [
('precision', precision_score),
]
for score_name, score_func in scores:
clf = GridSearchCV(SVC(C=1), tuned_parameters, score_func=score_func)
clf.fit(X[train], y[train])
y_true, y_pred = y[test], clf.predict(X[test])
但是我收到以下错误:
ValueError:y中填充最少的类只有2个成员 太少了。任何类的最小标签数量都不能少 比k = 3。
答案 0 :(得分:3)
在scikit-learn中没有专门用于一次性学习的模型。
此外,您应该在错误消息的完整回溯中看到,GridSearchCV
在内部使用交叉验证,因此您无法在没有至少2个正样本的数据集上使用它。