如何在Spark Env中执行Scala文件

时间:2019-04-09 11:58:14

标签: scala apache-spark dataframe

当我们想在下面使用的pyspark中执行.py文件时。

spark-submit filename.py

spark-shell -i filename.scala //只解释文件中的代码,不执行

它只是编译并显示代码行

是否有类似的方式来编译和执行scala文件?

0 个答案:

没有答案