在Matlab中计算广义线性模型的交叉验证

时间:2014-05-28 06:23:23

标签: matlab machine-learning regression glm cross-validation

我正在使用广义线性模型进行回归。我使用crossVal函数来捕获。到目前为止我的实施;

x = 'Some dataset, containing the input and the output'

X = x(:,1:7);
Y = x(:,8);

cvpart = cvpartition(Y,'holdout',0.3);
Xtrain = X(training(cvpart),:);
Ytrain = Y(training(cvpart),:);
Xtest = X(test(cvpart),:);
Ytest = Y(test(cvpart),:);

mdl = GeneralizedLinearModel.fit(Xtrain,Ytrain,'linear','distr','poisson');

Ypred  = predict(mdl,Xtest);
res = (Ypred - Ytest);
RMSE_test = sqrt(mean(res.^2));

以下代码用于计算从此link获得的多重回归的交叉验证。我想要类似于广义线性模型的东西。

c = cvpartition(Y,'k',10);
regf=@(Xtrain,Ytrain,Xtest)(Xtest*regress(Ytrain,Xtrain));
cvMse = crossval('mse',X,Y,'predfun',regf)

1 个答案:

答案 0 :(得分:5)

您可以手动执行交叉验证过程(为每个折叠训练模型,预测结果,计算错误,然后报告所有折叠的平均值),或者您可以使用包裹此内容的CROSSVAL函数一次通话中的整个程序。

举个例子,我将首先加载并准备一个数据集(统计工具箱附带的cars dataset的一个子集):

% load regression dataset
load carsmall
X = [Acceleration Cylinders Displacement Horsepower Weight];
Y = MPG;

% remove instances with missing values
missIdx = isnan(Y) | any(isnan(X),2);
X(missIdx,:) = [];
Y(missIdx) = [];

clearvars -except X Y

选项1

在这里,我们将使用k-fold cross-validation(非分层)使用cvpartition手动分区数据。对于每个折叠,我们使用训练数据训练GLM模型,然后使用该模型预测测试数据的输出。接下来,我们为此折叠计算并存储回归mean squared error。最后,我们报告所有分区的平均RMSE。

% partition data into 10 folds
K = 10;
cv = cvpartition(numel(Y), 'kfold',K);

mse = zeros(K,1);
for k=1:K
    % training/testing indices for this fold
    trainIdx = cv.training(k);
    testIdx = cv.test(k);

    % train GLM model
    mdl = GeneralizedLinearModel.fit(X(trainIdx,:), Y(trainIdx), ...
        'linear', 'Distribution','poisson');

    % predict regression output
    Y_hat = predict(mdl, X(testIdx,:));

    % compute mean squared error
    mse(k) = mean((Y(testIdx) - Y_hat).^2);
end

% average RMSE across k-folds
avrg_rmse = mean(sqrt(mse))

选项2

在这里,我们可以简单地使用适当的函数句柄调用CROSSVAL,该函数句柄在给定一组训练/测试实例的情况下计算回归输出。请参阅doc页面以了解参数。

% prediction function given training/testing instances
fcn = @(Xtr, Ytr, Xte) predict(...
    GeneralizedLinearModel.fit(Xtr,Ytr,'linear','distr','poisson'), ...
    Xte);

% perform cross-validation, and return average MSE across folds
mse = crossval('mse', X, Y, 'Predfun',fcn, 'kfold',10);

% compute root mean squared error
avrg_rmse = sqrt(mse)

与之前相比,您应该得到类似的结果(当然,由于交叉验证中涉及的随机性,略有不同)。