我想用Logistic回归模型预测交叉验证的概率。我知道您可以获得交叉验证分数,但是可以从predict_proba而不是分数中返回值吗?
# imports
from sklearn.linear_model import LogisticRegression
from sklearn.cross_validation import (StratifiedKFold, cross_val_score,
train_test_split)
from sklearn import datasets
# setup data
iris = datasets.load_iris()
X = iris.data
y = iris.target
# setup model
cv = StratifiedKFold(y, 10)
logreg = LogisticRegression()
# cross-validation scores
scores = cross_val_score(logreg, X, y, cv=cv)
# predict probabilities
Xtrain, Xtest, ytrain, ytest = train_test_split(X, y)
logreg.fit(Xtrain, ytrain)
proba = logreg.predict_proba(Xtest)
答案 0 :(得分:33)
现在,这是scikit-learn版本0.18的一部分。您可以将'method'字符串参数传递给cross_val_predict方法。文档为here。
示例:
proba = cross_val_predict(logreg, X, y, cv=cv, method='predict_proba')
另请注意,这是新sklearn.model_selection包的一部分,因此您需要进行此导入:
from sklearn.model_selection import cross_val_predict
答案 1 :(得分:11)
一个简单的解决方法是创建一个包装类,对于您的情况将是
class proba_logreg(LogisticRegression):
def predict(self, X):
return LogisticRegression.predict_proba(self, X)
然后将其实例作为分类器对象传递给cross_val_predict
# cross validation probabilities
probas = cross_val_predict(proba_logreg(), X, y, cv=cv)
答案 2 :(得分:4)
有一个函数cross_val_predict
可以为您提供预测值,但是没有这样的函数用于" predict_proba"然而。也许我们可以做出选择。
答案 3 :(得分:0)
这很容易实现:
def my_cross_val_predict(
m, X, y, cv=KFold(),
predict=lambda m, x: m.predict_proba(x),
combine=np.vstack
):
preds = []
for train, test in cv.split(X):
m.fit(X[train, :], y[train])
pred = predict(m, X[test, :])
preds.append(pred)
return combine(preds)
此返回return_proba。
如果您同时需要使用predict和predict_proba,只需更改predict
和combine
参数:
def stack(arrs):
if arrs[0].ndim == 1:
return np.hstack(arrs)
else:
return np.vstack(arrs)
def my_cross_val_predict(
m, X, y, cv=KFold(),
predict=lambda m, x:[ m.predict(x)
, m.predict_proba(x)
],
combine=lambda preds: list(map(stack, zip(*preds)))
):
preds = []
for train, test in cv.split(X):
m.fit(X[train, :], y[train])
pred = predict(m, X[test, :])
preds.append(pred)
return combine(preds)