交叉验证的方式

时间:2019-06-30 14:14:46

标签: python cross-validation k-fold

假设我有fold1,fold2,fold3。

我用modelA训练了fold1,fold2,fold3。

  

A)modelA(fold1)-> modelA(fold2)-> modelA(fold3)

     

B)modelA(fold1)->减轻重量modelA(fold1)-> modelA(fold2)->   减轻体重modelA(fold2)-> modelA(fold3)->减轻体重   modelA(fold3)->合奏3的重量

哪种方法是进行k折叠交叉验证的正确方法,为什么?

1 个答案:

答案 0 :(得分:0)

这取决于您的最终目标。 K-Fold CV用于查找模型超参数。

在此阶段之后,您可以更改验证数据集并使用它训练模型。

如果您想尽可能多地利用数据(执行预测),则最好在N的不同折叠上训练N模型并集合其预测。这与boostrap相似,在您的整体中看到了所有数据,但并不过分。不过,这种方法的计算强度是N倍,因此仍然取决于您的目标。

最后,通过将不同的模型拟合到折叠中而不是单个模型,可以获得更好的结果,但是每种算法都需要单独的超参数空间。