我正在Linux机器上运行R,它有8个多核处理器,并且有一个优化问题我希望通过并行优化例程本身来加速。重要的是,这个问题涉及(1)多个参数,以及(2)固有的慢模型运行。一个相当普遍的问题!
对于这种场合,任何人都知道并行优化器吗?
更具体地说,每次算法在参数空间中迈出一步时,像nlm()
这样的求解器会运行多个模型评估(每个参数值两个),因此在这些情况下并行化多个模型运行的实例会大大加快速度当适合多个参数值时。
似乎使用包parallel
的代码可以用户必须进行最小代码修改以使用nlm()
的方式编写或optim()
这个并行优化例程。也就是说,似乎可以基本上没有任何改变地重写这些例程,除了多次调用模型的步骤(在基于梯度的方法中很常见)将并行完成。
理想情况下,像nlmPara()这样的代码会采用类似
的代码fit <- nlm(MyObjFunc, params0);
并且只需要稍作修改,例如
fit <- nlmPara(MyObjFunc, params0, ncores=6);
思想/建议?
PS:我已采取措施加速这些模型运行,但由于各种原因它们很慢(即我不需要加速模型运行的建议!;-))。答案 0 :(得分:7)
这是一个粗略的解决方案,至少有一些承诺。非常感谢Ben Bolker指出许多/大多数优化例程都允许用户指定的渐变函数。
具有更多参数值的测试问题可能会显示更显着的改进,但在8核计算机上,使用并行化渐变功能的运行大约占串行版本的70%。请注意,此处使用的粗略梯度近似似乎会减慢收敛速度,从而为该过程增加了一些时间。
## Set up the cluster
require("parallel");
.nlocalcores = NULL; # Default to "Cores available - 1" if NULL.
if(is.null(.nlocalcores)) { .nlocalcores = detectCores() - 1; }
if(.nlocalcores < 1) { print("Multiple cores unavailable! See code!!"); return()}
print(paste("Using ",.nlocalcores,"cores for parallelized gradient computation."))
.cl=makeCluster(.nlocalcores);
print(.cl)
# Now define a gradient function: both in serial and in parallel
mygr <- function(.params, ...) {
dp = cbind(rep(0,length(.params)),diag(.params * 1e-8)); # TINY finite difference
Fout = apply(dp,2, function(x) fn(.params + x,...)); # Serial
return((Fout[-1]-Fout[1])/diag(dp[,-1])); # finite difference
}
mypgr <- function(.params, ...) { # Now use the cluster
dp = cbind(rep(0,length(.params)),diag(.params * 1e-8));
Fout = parCapply(.cl, dp, function(x) fn(.params + x,...)); # Parallel
return((Fout[-1]-Fout[1])/diag(dp[,-1])); #
}
## Lets try it out!
fr <- function(x, slow=FALSE) { ## Rosenbrock Banana function from optim() documentation.
if(slow) { Sys.sleep(0.1); } ## Modified to be a little slow, if needed.
x1 <- x[1]
x2 <- x[2]
100 * (x2 - x1 * x1)^2 + (1 - x1)^2
}
grr <- function(x, slow=FALSE) { ## Gradient of 'fr'
if(slow) { Sys.sleep(0.1); } ## Modified to be a little slow, if needed.
x1 <- x[1]
x2 <- x[2]
c(-400 * x1 * (x2 - x1 * x1) - 2 * (1 - x1),
200 * (x2 - x1 * x1))
}
## Make sure the nodes can see these functions & other objects as called by the optimizer
fn <- fr; # A bit of a hack
clusterExport(cl, "fn");
# First, test our gradient approximation function mypgr
print( mypgr(c(-1.2,1)) - grr(c(-1.2,1)))
## Some test calls, following the examples in the optim() documentation
tic = Sys.time();
fit1 = optim(c(-1.2,1), fr, slow=FALSE); toc1=Sys.time()-tic
fit2 = optim(c(-1.2,1), fr, gr=grr, slow=FALSE, method="BFGS"); toc2=Sys.time()-tic-toc1
fit3 = optim(c(-1.2,1), fr, gr=mygr, slow=FALSE, method="BFGS"); toc3=Sys.time()-tic-toc1-toc2
fit4 = optim(c(-1.2,1), fr, gr=mypgr, slow=FALSE, method="BFGS"); toc4=Sys.time()-tic-toc1-toc2-toc3
## Now slow it down a bit
tic = Sys.time();
fit5 = optim(c(-1.2,1), fr, slow=TRUE); toc5=Sys.time()-tic
fit6 = optim(c(-1.2,1), fr, gr=grr, slow=TRUE, method="BFGS"); toc6=Sys.time()-tic-toc5
fit7 = optim(c(-1.2,1), fr, gr=mygr, slow=TRUE, method="BFGS"); toc7=Sys.time()-tic-toc5-toc6
fit8 = optim(c(-1.2,1), fr, gr=mypgr, slow=TRUE, method="BFGS"); toc8=Sys.time()-tic-toc5-toc6-toc7
print(cbind(fast=c(default=toc1,exact.gr=toc2,serial.gr=toc3,parallel.gr=toc4),
slow=c(toc5,toc6,toc7,toc8)))
答案 1 :(得分:2)
由于你还没有接受答案,这个想法可能会有所帮助:
对于全局优化,包DEoptim()
具有用于并行优化的内置选项。好的方面是,它易于使用,文档编写得很好。
c.f。 http://www.jstatsoft.org/v40/i06/paper(目前已关闭)
http://cran.r-project.org/web/packages/DEoptim/index.html
注意:差异Evolglobal优化器可能仍会遇到本地人。
答案 2 :(得分:2)
我是R包的作者 optimParallel 。它提供了optim()
基于梯度的优化方法的并行版本。包的主要功能是optimParallel()
,其用法和输出与optim()
相同。使用optimParallel()
可以显着缩短优化时间,如下图所示(p
是参数的数量)。
有关详细信息,请参阅https://cran.r-project.org/package=optimParallel和http://arxiv.org/abs/1804.11058。
答案 3 :(得分:0)
我使用包doSNOW在8个内核上运行代码。 我可以复制并粘贴引用此包的代码部分。 希望它有所帮助!
# use multicore libraries
# specify number of cores to use
cores<- 8
cluster <- makeCluster(cores, type="SOCK")
registerDoSNOW(cluster)
# check how many cores will be used
ncores <- getDoParWorkers()
print(paste("Computing algorithm for ", cores, " cores", sep=""))
fph <- rep(-100,12)
# start multicore cicle on 12 subsets
fph <- foreach(i=1:12, .combine='c') %dopar% {
PhenoRiceRun(sub=i, mpath=MODIS_LOCAL_DIR, masklocaldir=MASK_LOCAL_DIR, startYear=startYear, tile=tile, evismoothopt=FALSE)
}
stopCluster(cluster) # check if gives error
gc(verbose=FALSE)