如何从docker容器内的JupyterLab连接到Yarn群集上的Spark?

时间:2019-02-28 16:14:01

标签: apache-spark hadoop hive jupyter-notebook jupyter-lab

我有一个多工作人员hadoop集群,我想使用spark在蜂巢中处理我的数据。我可以从本地成功地从spark-shell和pyspark查询数据,但是我愿意使用jupyterLab来执行此任务,该服务器位于群集内的docker容器中。 我不知道如何访问docker内部的spark。任何帮助,将不胜感激。

谢谢

0 个答案:

没有答案