多个SPARK安装和SCALA依赖项

时间:2018-06-16 09:05:49

标签: apache-spark

我正在考虑将SPARK 2.x放在我的VM上。

但是,我是否需要再次专门安装Scala?

我有调用Scala 2.10的SPARK 1.6,但我无法找到Scala bin / library等的位置,是否可以重新使用它?查找显示许多位置下的许多scala文件和引用,例如Hadoop地方:

 /home/cloudera/.ivy2/cache/org.scala-lang/scala-compiler

如果scala -version没有显示任何内容,教程都指向安装。

寻求指导。注意:这与SBT无关。

1 个答案:

答案 0 :(得分:1)

Scala依赖项是Spark的编译时依赖项。

您不需要安装Scala就可以使用Spark-submit运行Spark shell或应用程序。