标签: apache-spark hadoop hive jupyter-notebook jupyter-lab
我有一个多工作人员hadoop集群,我想使用spark在蜂巢中处理我的数据。我可以从本地成功地从spark-shell和pyspark查询数据,但是我愿意使用jupyterLab来执行此任务,该服务器位于群集内的docker容器中。 我不知道如何访问docker内部的spark。任何帮助,将不胜感激。
谢谢