将R包运送到SparkR中的节点

时间:2015-09-17 08:11:25

标签: r apache-spark hadoop2 sparkr

您好我想知道是否有解决方案来运送带有spark-submit的R包并在SparkR的计算节点上使用它们?

1 个答案:

答案 0 :(得分:0)

压缩R包的内容并将其作为my_package.zip发送到群集,即使用 spark-submit 命令。这会将zip文件放入SparkR脚本的工作目录中。

然后您可以在R脚本中安装该软件包:

 install.packages("my_package.zip",repos=NULL)
 library(my_package)

免责声明:如果您的包依赖于其他包,则需要手动发货并安装。