是否可以通过交叉验证和使用培训/测试集进行评估?我理解交叉验证与保持评估,但我很困惑,如果我们将它们组合在一起。
答案 0 :(得分:1)
交叉验证和保持评估都广泛用于估计模型的准确性(或其他一些性能指标)。通常,如果您拥有大量可用数据,则可以使用保持评估,但如果您受到更多限制,则可以使用交叉验证。
但是它们也可以用于其他目的 - 特别是模型选择和优化 - 人们通常可能希望做这些事情以及估计模型的准确性。
例如,您可能希望在模型上执行特征选择(在模型的多个版本中进行选择,每个版本都使用不同的变量子集构建),然后评估最终选择的模型。对于最终评估,您可以保留一个用于保持验证的测试集;但是为了选择最佳的变量子集,您可以比较每个子集上构建的模型的精度,通过训练集上的交叉验证来估计。
模型的其他方面也可以使用这种混合方法进行优化,例如,来自神经网络的复杂性参数或来自岭回归的脊参数。
希望有所帮助!