评估公式的快速方法?

时间:2012-10-27 13:17:58

标签: r regression linear-regression

我正在使用dyn或dynlm来预测使用滞后变量的时间序列。

然而,在任何一种情况下,预测函数一次只评估一个时间步,在我的计算机上每步执行24毫秒的恒定时间,或者对于我的数据集大约1.8小时,这是超长的,因为整个回归大约需要10秒钟。

所以,我在想,或许最简单的事情可能只是手工评估公式?

那么,是否有某种方法可以在给定data.frame或当前环境中的值或类似值的情况下评估公式?

我正在考虑以下几点:

evalMagic( load ~ temperature + time, data.frame( temperature = 10, time = 4 ) )

我想,在我写这篇文章时,我们需要以某种方式处理系数,例如:

evalMagic( load ~ temperature + time, data.frame( temperature = 10, time = 4 ), model$coefficients )

....所以这提出了以下问题:

  • 这不是预测应该做的吗?
  • 为什么预测这么慢?
  • 我有什么选择让预测更快一些?毕竟,它不是反转任何矩阵或其他东西,它只是一点算术!

2 个答案:

答案 0 :(得分:2)

我最后编写了自己的滞后实现。这是hacky而不是很漂亮,但速度要快得多。它可以在我糟糕的笔记本电脑上在4秒内处理1000行。

# lags is a data.frame, eg:
#   var  amount
#   y    1
#   y    2
addLags <- function( dataset, lags ) {
    N <- nrow(dataset)
    print(lags)
    if( nrow(lags) > 0 ) {
        print(lags)
        for( j in 1:nrow(lags) ) {
            sourcename <- as.character( lags[j,"var"] )
            k <- lags[j,"amount"]
            cat("k",k,"sourcename",sourcename,"\n")
            lagcolname <- sprintf("%s_%d",sourcename,k)
            dataset[,lagcolname] <- c(rep(0,k), dataset[1:(N-k),sourcename])
        }
    }
    dataset
}

lmLagged <- function( formula, train, lags ) {
    # get largest lag, and skip that
    N <- nrow(train)
    skip <- 0
    for( j in 1:nrow(lags) ) {
        k <- lags[j,"amount"]
        skip <- max(k,skip)
    }
    print(train)
    train <- addLags( train, lags )
    print(train)
    lm( formula, train[(skip+1):N,] )
}

# pass in training data, test data,
# it will step through one by one
# need to give dependent var name
# lags is a data.frame, eg:
#   var amount
#   y    1
#   y    2
predictLagged <- function( model, train, test, dependentvarname, lags ) {
    Ntrain <- nrow(train)
    Ntest <- nrow(test)
    test[,dependentvarname] <- NA
    testtraindata <- rbind( train, test )
    testtraindata <- addLags( testtraindata, lags )
    for( i in 1:Ntest ) {
       thistestdata <- testtraindata[Ntrain + i,]
       result <- predict(model,newdata=thistestdata)
       for( j in 1:nrow(lags) ) {
            sourcename <- lags[j,"var"]
            k <- lags[j,"amount"]
            lagcolname <- sprintf("%s_%d",sourcename,k)
            testtraindata[Ntrain + i + k,lagcolname] <- result
       }
       testtraindata[Ntrain+i,dependentvarname] <- result
    }
    return( testtraindata[(Ntrain+1):(Ntrain + Ntest),dependentvarname] )    
}

library("RUnit")

# size of training data
N <- 6
predictN <- 50

# create training data, which we can get exact fit on
set.seed(1)
x = sample( 100, N )
traindata <- numeric()
traindata[1] <- 1 + 1.1 * x[1]
traindata[2] <- 2 + 1.1 * x[2]
for( i in 3:N ) {
   traindata[i] <- 0.5 + 0.3 * traindata[i-2] - 0.8 * traindata[i-1] + 1.1 * x[i]
}
train <- data.frame(x = x, y = traindata, foo = 1)
#train$x <- NULL

# create testing data, bunch of NAs
test <- data.frame( x = sample(100,predictN), y = rep(NA,predictN), foo = 1)

# specify which lags we need to handle
# one row per lag, with name of variable we are lagging, and the distance
# we can then use these in the formula, eg y_1, and y_2
# are y lagged by 1 and 2 respectively
# It's hacky but it kind of works...
lags <- data.frame( var = c("y","y"), amount = c(1,2) ) 

# fit a model
model <- lmLagged(  y ~ x + y_1 + y_2, train, lags )
# look at the model, it's a perfect fit. Nice!
print(model)

print(system.time( test <- predictLagged( model, train, test, "y", lags ) ))
#checkEqualsNumeric( 69.10228, test[56-6], tolerance = 0.0001 )
#checkEquals( 2972.159, test$y[106-6] )
print(test)

# nice plot
plot(test, type='l')

输出:

> source("test/test.regressionlagged.r",echo=F)

Call:
lm(formula = formula, data = train[(skip + 1):N, ])

Coefficients:
(Intercept)            x          y_1          y_2  
        0.5          1.1         -0.8          0.3  

   user  system elapsed 
  0.204   0.000   0.204 
 [1]  -19.108620  131.494916  -42.228519   80.331290  -54.433588   86.846257
 [7]  -13.807082   77.199543   12.698241   64.101270   56.428457   72.487616
[13]   -3.161555   99.575529    8.991110   44.079771   28.433517    3.077118
[19]   30.768361   12.008447    2.323751   36.343533   67.822299  -13.154779
[25]   72.070513  -11.602844  115.003429  -79.583596  164.667906 -102.309403
[31]  193.347894 -176.071136  254.361277 -225.010363  349.216673 -299.076448
[37]  400.626160 -371.223862  453.966938 -420.140709  560.802649 -542.284332
[43]  701.568260 -679.439907  839.222404 -773.509895  897.474637 -935.232679
[49] 1022.328534 -991.232631

这91行代码中大约有12个小时的工作时间。好吧,我承认我曾经玩过植物和僵尸。所以,10个小时。加上午餐和晚餐。不过,还是做了很多工作。

如果我们将predictN更改为1000,我将从system.time调用开始大约4.1秒。

我认为它更快,因为:

  • 我们不使用时间序列;我怀疑加快了速度
  • 我们不使用动态lm库,只是普通的lm;我想这稍快一点
  • 我们只将一行数据传递给每个预测的预测,我认为这个预测明显更快,例如使用dyn $ lm或dynmlm,如果一个滞后30,则需要将31行数据传入预测AFAIK
  • 少得多的data.frame / matrix复制,因为我们只是在每次迭代时就地更新滞后值

编辑:更正了次要的buggette,其中predictLagged返回了多列数据框而不仅仅是数字向量 Edit2:纠正了较少的小错误,你无法添加多个变量。还调整了注释和代码的滞后,并将滞后结构更改为“var”和“amount”,而不是“name”和“lags”。另外,更新测试代码以添加第二个变量。

编辑:这个版本中有大量的错误,我知道,因为我已经对它进行了单元测试并修复了它们,但复制和粘贴非常耗时,所以我将更新此帖子几天,一旦我的截止日期结束。

答案 1 :(得分:1)

也许你正在寻找这个:

fastlinpred <- function(formula, newdata, coefs) {
   X <- model.matrix( formula, data=newdata)
   X %*% coefs
}
coefs <- c(1,2,3) 
dd <- data.frame( temperature = 10, time = 4 )
fastlinpred(  ~ temperature + time, 
      dd , coefs )

这假设公式只有一个RHS(你可以通过form[-2]来摆脱公式的LHS。)

这肯定会消除predict.lm的大量开销,但我不知道它是否像你想要的那样快。 model.matrix也有很多内部机制。