version:=“1.0”
scalaVersion:=“2.11.8”
ivyScala:= ivyScala.value map {_.copy(overrideScalaVersion = true)}
libraryDependencies + =“org.apache.spark”%%“spark-core”%“2.1.0”
当我尝试通过sbt组装jar时,我尝试将火花引入我的开发环境,但它失败并在我的sbt中显示[error],如下所示:
[warn] :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn] :: UNRESOLVED DEPENDENCIES :: <br/>
[warn] :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn] :: org.apache.spark#spark-core_2.11;2.1.0: not found <br/>
[warn] :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn]
[warn] Note: Unresolved dependencies path: <br/>
[warn] org.apache.spark:spark-core_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L9-10) <br/>
[warn] +- org.apache.spark:spark-catalyst_2.11:2.1.0 <br/>
[warn] +- org.apache.spark:spark-sql_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L15-16) <br/>
[warn] +- org.apache.spark:spark-hive_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L11-12) <br/>
[warn] +- default:producttagmodel_2.11:1.0 <br/>
[trace] Stack trace suppressed: run 'last *:update' for the full output. <br/>
[error] (*:update) sbt.ResolveException: unresolved dependency: org.apache.spark#spark-core_2.11;2.1.0: not found
我的IntelliJ版本是2016.3.5,sbt版本是0.13.13,scala版本是2.11.8;我发现sbt已经成功下载了spark-core.jar,我在我的.ivy / cache目录中找到了它,但它总是显示“未知工件。未重新存档或索引”。我已多次刷新我的项目索引,但它没有用。我在IntelliJ缓存干扰的情况下使用相同的build.sbt创建一个新项目,但它不起作用。我对这个问题感到很困惑。
这是我的build.sbt设置如下:
答案 0 :(得分:0)
如何将依赖项更改为:
<div id='test1' oncontextmenu='return false'></div>
<div id='test2'></div>
除了一个spark应用程序,它通常被添加为libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"
,它不应该包含在jar中,因为当你提交你的作业时,相关的spark库已经安装在驱动程序和执行程序中。 / p>