标签: apache-spark
小问题。确实需要显示“ scala运行时”(scala SDK)还是需要安装它才能在“本地模式”下运行Spark Shell或Spark程序
JVM已经存在。
请分享您的输入
答案 0 :(得分:1)
默认情况下,Spark具有Scala和Python运行时。 Scala将在JVM上运行。因此,您无需创建单独的运行时。
答案 1 :(得分:1)
将火花安装到本地时,可以找到罐子。而且,您可以直接运行无scala sdk的spark-shell。