我已经开发了Apache Spark应用程序,将其编译到jar中,并且希望将其作为Databricks作业运行。到目前为止,我一直在设置master=local
进行测试。我应如何在spark配置中设置此属性或其他属性,以使其在数据块中以群集模式运行。请注意,我没有在Databricks中创建集群,我只有一个可以按需运行的作业,因此我没有主节点的URL。
答案 0 :(得分:1)
对于databricks作业,您无需将master设置为任何内容。
您将需要执行以下操作:
val spark = SparkSession.builder().getOrCreate()