给出两组简单的数据:
head(training_set)
x y
1 1 2.167512
2 2 4.684017
3 3 3.702477
4 4 9.417312
5 5 9.424831
6 6 13.090983
head(test_set)
x y
1 1 2.068663
2 2 4.162103
3 3 5.080583
4 4 8.366680
5 5 8.344651
我想在训练数据上拟合线性回归线,并使用该线(或系数)计算测试数据上的残差的“测试MSE”或均方误差。
model = lm(y~x,data=training_set)
train_MSE = mean(model$residuals^2)
test_MSE = ?
答案 0 :(得分:6)
在这种情况下,更准确地称它为MSPE (mean squared prediction error):
mean((test_set$y - predict.lm(model, test_set)) ^ 2)
这是一个更有用的衡量标准,因为所有模型都旨在预测。我们想要一个具有最小MSPE的模型。
实际上,如果我们有备用测试数据集,我们可以直接计算MSPE,如上所述。但是,我们经常没有备用数据。在统计中,leave-one-out cross-validation是训练数据集中对MSPE的估计。
还有其他一些用于评估预测错误的统计信息,例如Mallows's statistic和AIC。