标签: docker apache-spark hadoop pyspark jupyter-notebook
请注意,我是新手。我的要求是在docker中设置具有spark和hive的hadoop多节点集群。
我已经拉出了一个使用uhopper / hadoop映像和jupyter笔记本建立的hadoop多节点集群,以访问我使用pyspark在hdfs中摄取的txt文件。现在,在单独的容器中有jupyter,在其他容器中有hadoop集群,我如何告诉jupyter Notebook在现有的hadoop集群上运行?
请提出任何更好的方法来满足我的要求。