在Spark Submit中访问Spark集群模式

时间:2018-10-25 10:53:30

标签: scala apache-spark

我正在尝试使用spark Submit运行我的spark scala代码。为此,我想访问Spark集群。那么,我应该在Spark上下文中对主服务器使用什么?我曾经这样

val spark = SparkSession.builder()
      .master("spark://prod5:7077")
      .appName("MyApp")
      .getOrCreate;

但是它似乎不起作用。我该如何使用Spark群集作为主设备?

2 个答案:

答案 0 :(得分:0)

如果您要在IDE中提交作业,只需确保“ prod5”是主文件,然后尝试将端口默认更改为6066。

答案 1 :(得分:0)

摘自官方文档-

spark-submit --class <main-class>  --master <master-url> --deploy-mode <deploy-mode>  --conf <key>=<value> ... # other options <application-jar>  [application-arguments]