标签: scala hadoop apache-spark cluster-computing
我已经设置了scala,Hadoop&火花&成功启动主节点。 我刚刚安装了scala&火花&也启动了工人(奴隶)。所以我感到困惑的是,不应该在工作中设置Haddop来运行任务吗?
答案 0 :(得分:0)
This链接显示了如何配置spark集群。并且要求清楚地解释here scala和hadoop都是必需的。