您好我想知道是否有解决方案来运送带有spark-submit
的R包并在SparkR的计算节点上使用它们?
答案 0 :(得分:0)
压缩R包的内容并将其作为my_package.zip发送到群集,即使用 spark-submit 命令。这会将zip文件放入SparkR脚本的工作目录中。
然后您可以在R脚本中安装该软件包:
install.packages("my_package.zip",repos=NULL)
library(my_package)
免责声明:如果您的包依赖于其他包,则需要手动发货并安装。