我们计划在Scala
上使用Spark
进行计算。只想知道在Scala
中执行Spark
的最佳方式是什么; Scala as Script
(或)Scala as Application
。这两种方法之间是否存在优势 / 劣势?
如上所述here,可以执行Scala as Script
。我正在尝试使用sbt
跳过编译过程,以便我可以使用Scala
作为脚本,就像我们将使用Python
答案 0 :(得分:2)
我认为你的意思是scala作为脚本,scala REPL带有spark(spark-shell),而scala应用程序是由sbt
或maven
打包的standlaone应用程序。
spark-shell
)来测试你的algoriothm / implementation。所以它应该用作分期阶段。spark-submit
提交的“胖罐子”希望这很清楚