嵌套交叉验证以使用组进行预测

时间:2018-08-16 08:51:18

标签: python scikit-learn

我无能为力,我想知道这是错误还是正常方式。

我正在尝试对数据集进行嵌套交叉验证,而每个交叉验证都属于一个患者。为避免对同一位患者进行学习和测试,我发现您实施了一种“组”机制,在我的情况下,GroupKFold似乎是正确的。 当我的分类器获得不同的参数时,我进入GridSearchCv来修复模型的超级参数。同样,我认为测试/培训必须属于不同的患者。

(对于那些对嵌套交叉验证感兴趣的人:http://scikit-learn.org/stable/auto_examples/model_selection/plot_nested_cross_validation_iris.html

我继续这样做:

pipe = Pipeline([('pca', PCA()),
                 ('clf', SVC()),
                 ])
# Find the best parameters for both the feature extraction and the classifier
grid_search = GridSearchCV(estimator=pipe, param_grid=some_param, cv=GroupKFold(n_splits=5), verbose=1)
grid_search.fit(X=features, y=labels, groups=groups)

# Nested CV with parameter optimization
predictions = cross_val_predict(grid_search, X=features, y=labels, cv=GroupKFold(n_splits=5), groups=groups)

得到一些:

File : _split.py", line 489, in _iter_test_indices
    raise ValueError("The 'groups' parameter should not be None.")
ValueError: The 'groups' parameter should not be None.

在代码中,看来_fit_and_predict()方法未将组共享给估算器,因此无法使用所需的组。

我可以提供一些线索吗? 祝你今天愉快, 最好的问候

1 个答案:

答案 0 :(得分:1)

我遇到了同样的问题,除了以更实际的方式实现它之外,我找不到其他方法:

outer_cv = GroupKFold(n_splits=4).split(X_data, y_data, groups=groups)
nested_cv_scores = []
for train_ids, test_ids in outer_cv:
    inner_cv = GroupKFold(n_splits=4).split(X_data[train_ids, :], y_data.iloc[train_ids], groups=groups[train_ids])

    rf = RandomForestClassifier()
    rf_random = RandomizedSearchCV(estimator=rf, param_distributions=random_grid, n_iter=100,
                                   cv=inner_cv, verbose=2, random_state=42,
                                   n_jobs=-1, scoring=my_squared_score)
    # Fit the random search model
    rf_random.fit(X_data[train_ids, :], y_data.iloc[train_ids])
    print(rf_random.best_params_)

    nested_cv_scores.append(rf_random.score(X_data[test_ids,:], y_data.iloc[test_ids]))

print("Nested cv score - meta learning: " + str(np.mean(nested_cv_scores)))

我希望这会有所帮助。

最好的问候, 费利克斯