Spark-Scala build.sbt libraryDependencies未解决的依赖关系

时间:2018-12-17 22:32:26

标签: scala apache-spark

我正在尝试从此处将build.sbt文件中的依赖项导入 https://github.com/dmarcous/spark-betweenness

当我将鼠标悬停在错误上时,它说:

  

表达类型ModuleID必须与SBT文件中的Def.SettingsDefinition确认
    未解决的依赖性

我是斯卡拉的新人,所以我的问题可能很愚蠢。谢谢您

1 个答案:

答案 0 :(得分:0)

尚不清楚您的构建配置的外观,但是以下build.sbt的工作原理(在某种意义上说,它已编译且未显示您提到的错误):

name := "test-sbt"

organization := "whatever"

version := "1.0.0"

scalaVersion := "2.10.7"

libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"

或者,如果您有一个多项目构建,它可能看起来像这样:

lazy val root = project
  .settings(
    name := "test-sbt",
    organization := "whatever",
    version := "1.0.0",
    scalaVersion := "2.10.7",
    libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"
  )

但是,您可能会发现它仍然无法工作,因为它无法解决此依赖性。实际上,该库似乎在Maven Central和jcenter中均不可用。它也很旧-它似乎仅在Scala 2.10和非常旧的Spark版本(1.5)中发布,因此很可能您将无法在最新的Spark环境(2.x和Scala 2.11)中使用它。