如何提高此代码的速度? (使用scipy.integrate.odeint解决ODE)

时间:2014-06-24 09:38:35

标签: python scipy ode odeint

我正在尝试使用scipy.integrate.odeint模块解决相对较大的ODE系统。我已经实现了代码,我可以正确地解决方程式。但这个过程非常缓慢。我对代码进行了分析,并且我意识到几乎大部分计算时间花在计算或生成ODE系统本身上,S形函数也很昂贵但我不得不接受它。这是我正在使用的一段代码:

def __sigmoid(self, u):
    # return .5 * ( u / np.sqrt(u**2 + 1) + 1)
    return 0.5 + np.arctan(u) / np.pi

def __connectionistModel(self, g, t):
    """
        Returning the ODE system
    """
    g_ia_s = np.zeros(self.nGenes * self.nCells)

    for i in xrange(0, self.nCells):
        for a in xrange(0, self.nGenes):

            g_ia = self.Params["R"][a] *\
                     self.__sigmoid( sum([ self.Params["W"][b + a*self.nGenes]*g[self.nGenes*i + b] for b in xrange(0, self.nGenes) ]) +\
                     self.Params["Wm"][a]*self.mData[i] +\
                     self.Params["h"][a] ) -\
                     self.Params["l"][a] * g[self.nGenes*i + a]

            # Uncomment this part for including the diffusion
            if   i == 0:    
                g_ia += self.Params["D"][a] * (                           - 2*g[self.nGenes*i + a] + g[self.nGenes*(i+1) + a] )
            elif i == self.nCells-1:
                g_ia += self.Params["D"][a] * ( g[self.nGenes*(i-1) + a] - 2*g[self.nGenes*i + a]                             )
            else:
                g_ia += self.Params["D"][a] * ( g[self.nGenes*(i-1) + a] - 2*g[self.nGenes*i + a] + g[self.nGenes*(i+1) + a] )

            g_ia_s[self.nGenes*i + a] = g_ia

    return g_ia_s


def solve(self, inp):
    g0 = np.zeros(self.nGenes * self.nCells)
    t = np.arange(self.t0, self.t1, self.dt)
    self.integratedExpression = odeint(self.__connectionistModel, g0, t, full_output=0)
    return self.integratedExpression

正如您在每次迭代中所看到的,我应该生成nCells * nGenes(100 * 3 = 300)方程并将其传递给odeint。虽然我不确定,但我认为生成方程式与解决它们相比非常昂贵。在我的实验中,解决整个系统需要7秒,其中包括1秒的odeint和6秒的__ConnectionistModel

我想知道是否有办法可以改善这一点?我试图使用SymPy来定义一个符号ODE系统,并将符号方程传递给odeint,但它无法正常工作,因为你无法真正定义一个符号数组,以后你可以像数组一样访问它们。

在最糟糕的情况下,我必须处理它或使用Cython加速解决过程,但我想确保我做得对,没有办法改进它。

提前感谢您的帮助。

[更新]:分析结果,

    ncalls  tottime  percall  cumtime  percall filename:lineno(function)
        1    0.000    0.000    7.915    7.915 grnTest.py:1(<module>)
        1    0.000    0.000    7.554    7.554 grn.py:83(solve)
        1    0.000    0.000    7.554    7.554 odepack.py:18(odeint)
        1    0.027    0.027    7.554    7.554 {scipy.integrate._odepack.odeint}
     1597    5.506    0.003    7.527    0.005 grn.py:55(__connectionistModel)
   479100    1.434    0.000    1.434    0.000 grn.py:48(__sigmoid)
   479102    0.585    0.000    0.585    0.000 {sum}
        1    0.001    0.001    0.358    0.358 grn.py:4(<module>)
        2    0.001    0.001    0.207    0.104 __init__.py:10(<module>)
       27    0.014    0.001    0.185    0.007 __init__.py:1(<module>)
        7    0.006    0.001    0.106    0.015 __init__.py:2(<module>)

[更新2]:我公开提供了代码:pyStGRN

1 个答案:

答案 0 :(得分:3)

矢量化,矢量化,然后再矢量化。并使用便于矢量化的数据结构。

函数__connectionistModel使用了大量访问模式A[i*m+j],这相当于对2D数组中的行i和列j的访问权限m列。这表明2D阵列是存储数据的正确方法。我们可以通过使用NumPy切片表示法和向量化来消除函数中i的循环,如下所示:

def __connectionistModel_vec(self, g, t):
    """
        Returning the ODE system
    """
    g_ia_s = np.zeros(self.nGenes * self.nCells)

    g_2d = g.reshape((self.nCells, self.nGenes))
    W = np.array(self.Params["W"])
    mData = np.array(self.mData)
    g_ia_s = np.zeros((self.nCells, self.nGenes))       

    for a in xrange(0, self.nGenes):
        g_ia = self.Params["R"][a] *\
            self.__sigmoid( (W[a*self.nGenes:(a+1)*self.nGenes]*g_2d).sum(axis=1) +\
                self.Params["Wm"][a]*mData +\
                self.Params["h"][a] ) -\
            self.Params["l"][a] * g_2d[:,a]
        g_ia[0] += self.Params["D"][a] * ( - 2*g_2d[0,a] + g_2d[1,a] )
        g_ia[-1] += self.Params["D"][a] * ( g_2d[-2,a] - 2*g_2d[-1,a] )
        g_ia[1:-1] += self.Params["D"][a] * ( g_2d[:-2,a] - 2*g_2d[1:-1,a] + g_2d[2:,a] )

        g_ia_s[:,a] = g_ia

    return g_ia_s.ravel()

据我所见,这会返回与原始__connectionistModel相同的值。作为奖励,该功能现在更加紧凑。我只对这个函数进行了优化,使其具有与原始函数相同的输入和输出,但为了提高性能,您可能希望在NumPy数组中而不是列表中组织数据,以避免在每次调用时从列表转换为数组。而且我确信还有其他一些小的性能调整。

无论如何,原始代码给了我这些分析结果(在这里插入强制性的“我的电脑比你的更快”吹嘘):

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
  1597    3.648    0.002    5.250    0.003 grn.py:52(__connectionistModel)
479100    0.965    0.000    0.965    0.000 grn.py:48(__sigmoid)
479100    0.635    0.000    0.635    0.000 {sum}
     1    0.017    0.017    5.267    5.267 {scipy.integrate._odepack.odeint}
  1598    0.002    0.000    0.002    0.000 {numpy.core.multiarray.zeros}

使用__connectionistModel_vec,我得到:

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
  1597    0.175    0.000    0.247    0.000 grn.py:79(__connectionistModel_vec)
  4791    0.031    0.000    0.031    0.000 grn.py:48(__sigmoid)
  4800    0.021    0.000    0.021    0.000 {method 'reduce' of 'numpy.ufunc' objects}
     1    0.018    0.018    0.265    0.265 {scipy.integrate._odepack.odeint}
  3197    0.013    0.000    0.013    0.000 {numpy.core.multiarray.array}