我使用我的spark项目作为独立模式(在eclipse IDE中)。这是我使用的一些代码(运行良好)。
val conf = new SparkConf()
.setAppName("My Application")
.setMaster("local[*]")
.set("spark.executor.memory", "4g")
.set("spark.driver.memory", "4g")
SparkSession.builder
.config(conf)
.appName("spark app")
.config("spark.sql.warehouse.dir", "file:///.")
.getOrCreate()
}
到目前为止,我将此应用程序包装为jar并在另一个java项目中使用。
现在我要将其更改为多用户的纱线群集模式。所以,我用这个图像(link)在docker中安装了hadoop聚类。