如何让我的代码更快地计算q2-LOO?

时间:2015-04-22 12:18:55

标签: python numpy scipy ipython scikit-learn

我已经编写了一些代码来计算q2-Leave One Out进行多元线性回归,并且它在准确性方面效果很好。但是,由于我在遗传算法中使用q2LOO作为评估指标,因此这段代码太慢了 - 现在,使用我的q2LOO代码进行体面的GA运行需要HOURS。我无法找到任何计算q2LOO的库,因此我使用numpy和scikit-learn。

import numpy as np
from sklearn import cross_validation
def mlrr(x_of_trainingset,y_actual):
    npones=np.ones(len(x_of_trainingset), float)

    A_sl=x_of_trainingset
    A=np.column_stack([A_sl,npones])

    lstsq,residuals,rank,something=np.linalg.lstsq(A, y_actual)
    return lstsq
def kfoldmlr(xi,yi,nfolds):
    x=xi.values
    y=yi.values

    kf = cross_validation.KFold(len(y), n_folds=nfolds)#indices=None, shuffle=False, random_state=None)
    y_hats=[]
    for train_index, test_index in kf:
        x_train, x_test = x[train_index], x[test_index]
        y_train=y[train_index]
        coefficients=mlrr(x_train,y_train)
        yhat=coefficients[-1]

        for index in range(x_test.size):
            slopetimesx=x_test[0][index]*coefficients[index]
            yhat=yhat+slopetimesx
        y_hats.append(float(yhat))


    stack=np.asarray(y_hats)
    return stack
def q2loo_mlr(x,y):
'''calculates q2loo of a linear regression of x and y where both x and y are 1-d'''
    yhats=kfoldmlr(x,y,len(x))
    PRESS=sum((y-yhats)**2)
    TSS=sum((y-np.mean(y))**2)
    r2cv=(TSS-PRESS)*(TSS**(-1))#1-(PRESS/TSS)
    return r2cv

经过测试,这是我得到的速度:

%timeit q2loo_mlr(x, y)
10 loops, best of 3: 21.7 ms per loop

%timeit kfoldmlr(x, y, len(x))
1000 loops, best of 3: 156 µs per loop

显然这种缓慢是因为它一遍又一遍地做np.linalg.lstsq这一事实,但还有其他选择吗?或者还有其他方法可以加快速度吗?

1 个答案:

答案 0 :(得分:0)

由于q2loo_mlrkfoldmlr的运行时间为139:1,我认为mlrr中对kfoldmlr的调用显然会减慢代码速度 - {{ 1}}只被调用一次。

如果是,则将系数缓存为固定索引kfoldmlr将是一个想法,因为系数似乎仅是train_index的函数,因此可以重复使用。

train_index中,如果您重写

q2loo_mlr

as

TSS=sum((y-np.mean(y))**2)

会降低运行时间吗?据我所知y_mean = np.mean(y) TSS=sum((y - y_mean)**2) 是一个标量。