Spark-是否真的需要安装scala才能运行“ scala shell”

时间:2020-07-29 07:17:36

标签: apache-spark

小问题。确实需要显示“ scala运行时”(scala SDK)还是需要安装它才能在“本地模式”下运行Spark Shell或Spark程序

JVM已经存在。

请分享您的输入

2 个答案:

答案 0 :(得分:1)

默认情况下,Spark具有Scala和Python运行时。 Scala将在JVM上运行。因此,您无需创建单独的运行时。

答案 1 :(得分:1)

将火花安装到本地时,可以找到罐子。而且,您可以直接运行无scala sdk的spark-shell。

相关问题