Scala Spark连接到远程集群

时间:2017-04-26 09:41:58

标签: scala apache-spark remote-access

我希望连接到远程集群并执行Spark进程。 所以,根据我的阅读,这是在SparkConf中指定的。

 val conf = new SparkConf()
  .setAppName("MyAppName")
  .setMaster("spark://my_ip:7077")

其中my_ip是我的群集的IP地址。 不幸的是,我拒绝连接。所以,我猜测必须添加一些凭据才能正确连接。我如何指定凭据?它似乎可以用.set(键,值)来完成,但在此没有任何线索。

2 个答案:

答案 0 :(得分:2)

缺少两件事:

顺便说一句,如果您使用spark-submit提交作业,这将有效,编程方式实现它更复杂,并且只能使用yarn-client模式,这对于远程设置来说很棘手。

答案 1 :(得分:0)

  1. 为了使用spark启动纱线应用,您应该在--master yarn t命令中使用spark-submi或在应用配置初始化中使用setMaster("yarn")
  2. 如果要从远程主机发送"spark-submit"命令的情况可以使用popuar Java Secure Channel (JSCH)当然环境参数应该在群集上正确设置