与码头的纱线群火花

时间:2017-03-02 07:13:23

标签: hadoop apache-spark yarn

我使用我的spark项目作为独立模式(在eclipse IDE中)。这是我使用的一些代码(运行良好)。

val conf = new SparkConf()
.setAppName("My Application")
.setMaster("local[*]") 
.set("spark.executor.memory", "4g")
.set("spark.driver.memory", "4g")

SparkSession.builder
.config(conf)
.appName("spark app")
.config("spark.sql.warehouse.dir", "file:///.")
.getOrCreate()
}

到目前为止,我将此应用程序包装为jar并在另一个java项目中使用。

现在我要将其更改为多用户的纱线群集模式。所以,我用这个图像(link)在docker中安装了hadoop聚类。

  1. 我认为已经设定了纱线配置。我是否需要做更多的事情来做火花纱簇?
  2. 我应该如何设置sparkConf?如何通过hadoop ip,我的应用程序jar和其他需要的信息?

0 个答案:

没有答案