使用时:
"keep_cross_validation_predictions": True
"keep_cross_validation_fold_assignment": True
在H2O的XGBoost估算器中,我无法将这些经过交叉验证的概率映射回原始数据集。 R有一个文档示例,而Python没有(结合保留预测)。
任何人都在使用Python进行操作吗?
答案 0 :(得分:2)
交叉验证的预测存储在两个不同的位置-一次存储为model.cross_validation_predictions()
中长度为k(用于k倍)的列表,另一个存储为H2O帧,其CV前缀相同作为model.cross_validation_holdout_predictions()
中的原始训练行。后者通常是人们想要的(我们稍后再添加,这就是为什么有两个版本的原因)。
是的,不幸的是,《 H2O用户指南》的“交叉验证”部分中用于获取此框架的R example没有Python版本(用于修复该问题的ticket)。在keep_cross_validation_predictions
参数文档中,它仅显示两个位置之一。
这是使用XGBoost的更新示例,其中显示了两种CV预测:
import h2o
from h2o.estimators.xgboost import H2OXGBoostEstimator
h2o.init()
# Import a sample binary outcome training set into H2O
train = h2o.import_file("http://s3.amazonaws.com/erin-data/higgs/higgs_train_10k.csv")
# Identify predictors and response
x = train.columns
y = "response"
x.remove(y)
# For binary classification, response should be a factor
train[y] = train[y].asfactor()
# try using the `keep_cross_validation_predictions` (boolean parameter):
# first initialize your estimator, set nfolds parameter
xgb = H2OXGBoostEstimator(keep_cross_validation_predictions = True, nfolds = 5, seed = 1)
# then train your model
xgb.train(x = x, y = y, training_frame = train)
# print the cross-validation predictions as a list
xgb.cross_validation_predictions()
# print the cross-validation predictions as an H2OFrame
xgb.cross_validation_holdout_predictions()
CV pred预测框架如下:
Out[57]:
predict p0 p1
--------- --------- --------
1 0.396057 0.603943
1 0.149905 0.850095
1 0.0407018 0.959298
1 0.140991 0.859009
0 0.67361 0.32639
0 0.865698 0.134302
1 0.12927 0.87073
1 0.0549603 0.94504
1 0.162544 0.837456
1 0.105603 0.894397
[10000 rows x 3 columns]
答案 1 :(得分:1)
对于Python,有an example of this on GBM,对于XGB,它应该完全相同。根据该页面,您应该能够执行以下操作:
model = H2OXGBoostEstimator(keep_cross_validation_predictions = True)
model.train(x = predictors, y = response, training_frame = train)
cv_predictions = model.cross_validation_predictions()