scipy.optimize.fmin的朴素并行化

时间:2013-07-03 19:07:12

标签: python parallel-processing scipy multiprocessing

函数scipy.optimize.fmin_bfgs允许用户输入目标函数和渐变。由于我的桌面上有一台8核机器,我想我可以通过运行

来并行化解算器
from scipy import optimize
import itertools
import numpy as np

def single_grad_point((idx,px)):
    p = px.copy()
    epsilon = 10**(-6.0)
    p[idx] += epsilon
    d1 = err_func(p)
    p[idx] -= 2*epsilon
    d2 = err_func(p)
    return (d1-d2)/(2*epsilon)

def err_func_gradient(p):
    P = multiprocessing.Pool()   
    input_args = zip(*(xrange(len(p)), itertools.cycle((p,))))
    sol = P.imap(single_grad_point, input_args)
    return np.array(list(sol))

optimize.fmin_bfgs(err_func, p0, fprime=err_func_gradient)

简而言之,我正在使用多处理来计算渐变的每个方向。如果目标函数err_func很昂贵,那么这似乎会获得大幅加速。然而,我的问题是关于所有multiprocessing.Pools的使用和控制/破坏。由于err_func_gradient可能被称为成千上万次,会导致某个地方的减速或泄漏吗?

2 个答案:

答案 0 :(得分:5)

您可以使用mystic,它提供一些scipy.optimize算法的并行版本,包括fmin和朋友。

尝试做一个天真的调用,让每个并行计算的单纯形通常会减慢你的速度,除非你有一些非常昂贵的目标函数来计算。但是,如果你改为调用fmin的几个实例,你实际上可以以最速下降的速度获得pseduo-GLOBAL优化。以下示例演示了已在多个pub中使用的算法(请参见下文): https://github.com/uqfoundation/mystic/blob/master/examples/buckshot_example06.py

或类似地,请查看此处的示例:使用multiprocessing的分叉:https://github.com/uqfoundation/pathos/blob/master/examples2/optimize_cheby_powell_mpmap.py

parallelpython的分支(分布式并行计算): https://github.com/uqfoundation/pathos/blob/master/examples2/optimize_cheby_powell_ppmap.py

或使用mpi4py的扩展名: https://github.com/uqfoundation/pathos/blob/master/examples2/optimize_cheby_powell_mpimap.py

在此处获取mystic(求解器框架)和pathos(并行计算框架): https://github.com/uqfoundation

Pub引用(略有过时): http://conference.scipy.org/proceedings/scipy2011/mckerns.html http://trac.mystic.cacr.caltech.edu/project/mystic/wiki/Publications

但是,如果您想要更简单的fmin版本,最好的方法是只初始化并加载pool一次。这就是pathos已经为您提供的内容,但如果您想自己编写代码,只需将pool的实例保存为单例。 https://github.com/uqfoundation/pathos/blob/master/pathos/multiprocessing.py

答案 1 :(得分:-3)

对于初学者,您可以将渐变计算为

(F(X)-f(X + EPS))/ EPS

然后对所有偏导数计算一次f(x)。这应该可以节省你一半的工作量