在IntelliJ中运行Spark单元测试

时间:2016-03-18 23:35:39

标签: maven intellij-idea apache-spark

我有一个我在IntelliJ开发的火花工作。它通过maven构建,测试通过,我可以在本地运行该作业。但是,如果我尝试通过IntelliJ运行测试,我会得到

  

错误:scalac:错误的符号引用。签名   SparkContext.class是指包根中的术语akka,而不是   可用。它可能在当前的类路径中完全丢失,或者   类路径上的版本可能与版本不兼容   在编译SparkContext.class时使用。

1 个答案:

答案 0 :(得分:0)

我最终只是在IntelliJ中破坏并重建了IML,这解决了这个问题。