我试图在Windows上的Intellij IDEA的Scala SBT上添加Spark依赖项。 我创建了一个Scala SBT项目,并添加了配置“ clean compile package”以创建jar文件。除此之外,我还在build.sbt文件中添加了Spark-Core和Spark-Sql依赖项。我在创建项目时选择的Scala版本是:Scala 2.11.8。我的项目使用版本2.2.0的Spark。 因此,我添加了下面显示的依赖项。
name := "YearPartition"
version := "0.1"
scalaVersion := "2.11.8"
// https://mvnrepository.com/artifact/org.apache.spark/spark-core
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.2.0"
// https://mvnrepository.com/artifact/org.apache.spark/spark-sql
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.2.0"
我创建了一个小程序:
object PartitionRetrieval {
def main(args: Array[String]): Unit = {
println("Hello")
}
}
如果运行此命令,则不会出现任何异常,并且jar将成功创建。
但是IntelliJ的build.sbt显示消息:Unknown artifact. Not resolved or indexed
。我试图通过将Spark-Core和SQL徒劳地更改为不同版本来解决该异常。
谁能让我知道如何解决此异常?