工作者是否还需要为Spark安装Hadoop?

时间:2016-04-14 11:18:31

标签: scala hadoop apache-spark cluster-computing

我已经设置了scala,Hadoop&火花&成功启动主节点。 我刚刚安装了scala&火花&也启动了工人(奴隶)。所以我感到困惑的是,不应该在工作中设置Haddop来运行任务吗?

1 个答案:

答案 0 :(得分:0)

官方Apache Spark的

This链接显示了如何配置spark集群。并且要求清楚地解释here scala和hadoop都是必需的。