并行处理错误:端口无法打开

时间:2016-10-27 00:22:42

标签: r parallel-processing rparallel

我在linux集群中一次以批处理模式运行不同的R脚本来估计不同数据集中的模型(当我在Mac中运行它时也会发生这种情况)。除了正在使用的数据集之外,脚本完全相同。当我这样做时,我收到以下消息。

Error in socketConnection("localhost", port = port, server = TRUE, blocking = TRUE, : 
cannot open the connection
Calls: makePSOCKcluster -> newPSOCKnode -> socketConnection
In addition: Warning message:
In socketConnection("localhost", port = port, server = TRUE, blocking = TRUE, :
port 11426 cannot be opened

这是一个可重复的例子。使用内容:

创建两个文件tmp1.R和tmp2.R以及tmp.sh

文件内容tmp1.R和tmp2.R:

library(dclone)
l <- list(1:100,1:100,1:100,1:100)
cl <- makePSOCKcluster(4)
parLapply(cl, X=l, fun=function(x) {Sys.sleep(2); sum(x); })
stopCluster(cl)

tmp.sh文件的内容:

#!/bin/sh
R CMD BATCH tmp1.R &
R CMD BATCH tmp2.R &

将执行列表中的第一个文件。第二个将显示上面的错误。有没有人知道如何解决它并仍然自动运行所有脚本而无需任何人工干预?

PS:我已经阅读了所有其他类似的问题,没有一个可重现的例子或上述问题的答案。

1 个答案:

答案 0 :(得分:1)

您无需启动多个群集即可在多个数据集上运行相同的代码。只需将正确的数据发送到每个节点即可。

# make 4 distinct datasets
df1 <- mtcars[1:8,]
df2 <- mtcars[9:16,]
df3 <- mtcars[17:24,]
df4 <- mtcars[25:32,]

# make the cluster
cl <- makeCluster(4)

clusterApply(cl, list(df1, df2, df3, df4), function(df) {
    # do stuff with df
    # each node will use a different subset of data
    lm(mpg ~ disp + wt, df)
})

如果您希望数据在每个节点上都是持久的,那么您可以将其用于后续分析:

clusterApply(cl, list(df1, df2, df3, df4), function(df) {
    assign("df", df, globalenv())
    NULL
})

这会在每个节点上创建一个df数据框,该数据框对于该节点是唯一的。