标签: apache-spark
新的火花。在多节点模式下安装了apache spark。现在如果我安装yarn作为我的集群管理器如何处理因为我已经安装了sprak。现在默认情况下,我的任务如何分配给不同的工作人员?
答案 0 :(得分:0)
安装Yarn不依赖于Spark安装。纱线只是一个集群管理器。在提交jar时,您应该指定--master作为纱线。
请参阅以下文档。
RM0008