我有一个使用SBT构建的Spark项目。它试图使用scala 2.11.7,我在build.sbt中表明了这一点:
scalaVersion := "2.11.7"
autoScalaLibrary := false
scalaVersion := "2.11.7-local"
scalaHome := Some(file("/usr/local/Cellar/scala/2.11.7/libexec"))
有些人可能会说我实际上过度表示了它。
无论如何,当我启动jar时:
spark-submit --properties-file conf/devdefaults.conf output/logdata-demo.jar
检查scala版本的行打印:
version 2.10.4
为什么会发生这种情况,如何使用2.11.7强制系统构建?