使用optim优化R中的多输出函数,最好使用渐变

时间:2014-03-14 15:01:03

标签: r optimization

我最近从matlab切换到R,我想运行一个优化方案。

在matlab中,我能够:

options = optimset('GradObj', 'on', 'MaxIter', 400);
[theta, cost] = fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);

这相当于costFunctionReg(这里我称之为logisticRegressionCost)

logisticRegressionCost <- function(theta, X, y) {
    J = 0;
    theta = as.matrix(theta);
    X = as.matrix(X);
    y = as.matrix(y);   

    rows = dim(theta)[2];
    cols = dim(theta)[1];
    grad = matrix(0, rows, cols);

    predicted = sigmoid(X %*% theta);
    J = (-y) * log(predicted) - (1 - y) * log(1 - predicted);

    J = sum(J) / dim(y)[1];

    grad = t(predicted - y);
    grad = grad %*% X;
    grad = grad / dim(y)[1];

    return(list(J = J, grad = t(grad)));    
}

然而,当我尝试对其进行优化时,如:

o = optim(theta <- matrix(0, dim(X)[2]), fn = logisticRegressionCost, X = X, y = y, method="Nelder-Mead")

由于列表返回我收到错误。 (当我只返回J时它起作用)

错误:

  

(list)对象无法强制输入'double'

Q1:有没有办法指定优化用于最小化的回归? (比如fn $ J)

Q2:有没有我可以使用logisticRegressionCost计算的渐变的解决方案?

1 个答案:

答案 0 :(得分:6)

我认为你不能这样做,因为optim的文档说fn应该返回一个标量结果。

也许你可以编写一个帮助函数进行优化。类似的东西:

logisticRegressionCost.helper <- function(theta, X, y) {
   logisticRegressionCost(theta, X, y)$J
}

另外,你不需要半冒号来抑制R中的输出。当我从MatLab切换时,我也有同样的习惯:)