如何将Apache Spark配置设置为在集群模式下作为Databricks作业运行

时间:2019-07-29 13:16:42

标签: apache-spark databricks

我已经开发了Apache Spark应用程序,将其编译到jar中,并且希望将其作为Databricks作业运行。到目前为止,我一直在设置master=local进行测试。我应如何在spark配置中设置此属性或其他属性,以使其在数据块中以群集模式运行。请注意,我没有在Databricks中创建集群,我只有一个可以按需运行的作业,因此我没有主节点的URL。

1 个答案:

答案 0 :(得分:1)

对于databricks作业,您无需将master设置为任何内容。

您将需要执行以下操作:

val spark = SparkSession.builder().getOrCreate()