使用"提供"与sbt打破了Spark的Intellij语法高亮

时间:2014-11-20 13:32:26

标签: scala intellij-idea sbt sbt-assembly

我的依赖关系如下。我和Spark人员告诉我,我应该在火花依赖之后添加% "provided",这样他们就不会被我的罐子捆绑(不是我同意,但无论如何) 。现在,如果我添加"提供" Spark模块的语法突出显示中断:(所有内容都以红色突出显示(未解析)(在我执行sbt gen-idea之后)。它继续构建正常。

有没有人找到解决方案?我担心我可能不得不破解一个脚本来添加"提供的"在我编译之前的单词,然后在构建之后删除它们。

让Spark,SBT和Intellij一起玩就像玩耍鼹鼠一样,看来如果你解决了一个问题,另一个只是萌芽了!

libraryDependencies ++= Seq(
  "org.scalacheck" %% "scalacheck" % "1.10.1" % "test" withSources() withJavadoc(),
  "org.specs2" %% "specs2" % "1.14" % "test" withSources() withJavadoc(),
  "org.scalaz" %% "scalaz-core" % "7.0.5" withSources() withJavadoc(),
  "org.apache.commons" % "commons-math3" % "3.2" withSources() withJavadoc(),
  "io.spray" %%  "spray-json" % "1.3.1" withSources() withJavadoc(),
  ("org.apache.spark" % "spark-sql_2.10" % "1.0.0-cdh5.1.3") withSources() withJavadoc(),
  ("org.apache.spark" % "spark-core_2.10" % "1.0.0-cdh5.1.3") withSources() withJavadoc()
)

提供:

  ("org.apache.spark" % "spark-sql_2.10" % "1.0.0-cdh5.1.3" % "provided") withSources() withJavadoc(),
  ("org.apache.spark" % "spark-core_2.10" % "1.0.0-cdh5.1.3" % "provided") withSources() withJavadoc()

0 个答案:

没有答案