当我尝试构建我的apache spark项目时,我一直有sbt依赖问题。我有Apache Spark 1.3.1。
我的.sbt文件是这样的:
name := "Transaction"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.1"
resolvers ++= Seq(
"Akka Repository" at "http://repo.akka.io/releases/",
"Spray Repository" at "http://repo.spray.cc/")
我一直收到这个错误:
[error] (*:update) sbt.ResolveException: unresolved dependency: org.apache.spark#spark-core_2.10;1.3.1: not found
我看了一遍,这似乎是一个持久的问题,但没有人真正解决它。
感谢您的帮助!
答案 0 :(得分:1)
我用过
“org.apache.spark” % “spark-core_2.10” % “1.3.1”
而不是
“org.apache.spark” %% “spark-core” % “1.3.1”
它有效!
编辑: 但是,在专门制作我的scalaVersion 2.10之后,我能够让后一种说法起作用:
scalaVersion := "2.10"
可能是因为它试图寻找一个不存在的特定2.10.4 jar。
答案 1 :(得分:0)
我实际上已经明白了。你只需要在火花版本之后加上<pre></pre>
。
"provided"