假设,我在GridSearchCV中使用LeaveOneOut交叉验证。例如:
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import LeaveOneOut
clf = GridSearchCV(estimator=model, param_grid=param_grid, cv=LeaveOneOut())
这是问题:GridSearchCV (1)是否仅对一个样本或( 2)会创建具有相同超参数的 n个模型(针对数据集中的所有 n个数个样本),并在一个遗漏的样本上测试每个模型,然后计算具有相同超参数的模型的平均得分?
第二种选择似乎是正确的选择,因为这就是使用LeaveOneOut验证能够检查所有数据集上的模型并使用尽可能多的训练数据的原因,因此这就是所谓的昂贵选择,但我怀疑GridSearchCV会这样做。