如何强制SBT使用scala 2.11?

时间:2015-08-04 19:26:00

标签: scala apache-spark sbt

我有一个使用SBT构建的Spark项目。它试图使用scala 2.11.7,我在build.sbt中表明了这一点:

scalaVersion := "2.11.7"

autoScalaLibrary := false

scalaVersion := "2.11.7-local"

scalaHome := Some(file("/usr/local/Cellar/scala/2.11.7/libexec"))
有些人可能会说我实际上过度表示了它。

无论如何,当我启动jar时:

spark-submit  --properties-file conf/devdefaults.conf output/logdata-demo.jar 

检查scala版本的行打印:

version 2.10.4

为什么会发生这种情况,如何使用2.11.7强制系统构建?

0 个答案:

没有答案