分裂lapply以加快处理速度

时间:2015-11-09 10:34:26

标签: r performance lapply

我使用lapply在R中调用函数。该功能在计算上要求很高,特别是当重复多次(通常> 4000次)时。 R是否有一种很好的方法将作业拆分为单独的较小作业并将它们合并在一起,这比使用我当前的代码更快?

我找到了Hadley Wickham的拆分 - 应用 - 合并策略,但我不知道这是否适合这个问题。我发现的例子似乎并没有明确地解决分裂问题,但这种策略似乎是恰当的。这是调查的最佳方法,还是我应该研究更简单的方法?

我目前的代码:

output <- lapply(1:8000, simData, sampleSize )

理想情况下,我正在寻找一种方法将其分割成可以同时处理的小块

例如

 output1 <-   lapply(1:1000, simData, sampleSize )
 output2 <-  lapply(1001:2000, simData, sampleSize )
 output3 <-   lapply(2001:3000, simData, sampleSize )

然后将3个输出合并为一个output对象

我很欣赏有关R中最合适的方法的一些建议。

0 个答案:

没有答案