我正在使用sbt
来构建我的scala
项目。
这是我的build.sbt
:
name := "My Spark App"
version := "1.0"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0" % "provided"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.2.0" % "provided"
我正在运行sbt assembly
来创建程序集jar,但是我找到了一个包含scala库类代码的scala目录。
是否可以将scala库作为提供的依赖项,因为运行时环境已包含scala?
答案 0 :(得分:2)
从docs开始,这可能会有所帮助
assemblyOption in assembly := (assemblyOption in assembly).value.copy(includeScala = false)