如何在Docker上集成spark集群与其他Hadoop2.x集群

时间:2016-08-10 09:48:40

标签: hadoop apache-spark docker

我的服务器上已经安装了Hadoop2.5集群,在docker上运行,我们在同一台服务器上运行了一个Spark独立集群(也部署了docker),我怎样才能开启从独立模式到 Spark on Yarn 的Spark群集,因为hadoop和spark在分离的docker上运行。

0 个答案:

没有答案