如何在Docker中将jupyter / all-spark-notebooks容器与hadoop多节点集群连接

时间:2019-07-23 12:07:12

标签: docker apache-spark hadoop pyspark jupyter-notebook

请注意,我是新手。我的要求是在docker中设置具有spark和hive的hadoop多节点集群。

我已经拉出了一个使用uhopper / hadoop映像和jupyter笔记本建立的hadoop多节点集群,以访问我使用pyspark在hdfs中摄取的txt文件。现在,在单独的容器中有jupyter,在其他容器中有hadoop集群,我如何告诉jupyter Notebook在现有的hadoop集群上运行?

请提出任何更好的方法来满足我的要求。

0 个答案:

没有答案