我在spark maven
中使用Intelligent IDEA
支持编写了一个示例。
spark
版本为2.0.0,hadoop
版本为2.7.3,scala
版本为2.11.8。系统和IDE中的环境是相同的版本。然后应用程序运行错误:
线程中的异常" main" java.lang.NoSuchMethodError:
scala.Predef$.$scope()Lscala/xml/TopScope$
;在org.apache.spark.ui.jobs.StagePage
。(StagePage.scala:44)atorg.apache.spark.ui.jobs.StagesTab
。(StagesTab.scala:34)atorg.apache.spark.ui.SparkUI
。(SparkUI.scala:62)atorg.apache.spark.ui.SparkUI$.create(SparkUI.scala:215)
atorg.apache.spark.ui.SparkUI$.createLiveUI(SparkUI.scala:157)
atorg.apache.spark.SparkContext.<init>(SparkContext.scala:443)
atorg.apache.spark.SparkContext.<init>(SparkContext.scala:149)
atorg.apache.spark.SparkContext.<init>(SparkContext.scala:185)
atorg.apache.spark.api.java.JavaSparkContext.<init>(JavaSparkContext.scala:92)
在com.spark.test.WordCountTest.main(WordCountTest.java:25)
atsun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
atsun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
在java.lang.reflect.Method.invoke(Method.java:606)
atcom.intellij.rt.execution.application.AppMain.main(AppMain.java:140)
答案 0 :(得分:0)
使用scala 2.10构建Spark 2.0.0,您必须添加scala 2.10作为框架支持
答案 1 :(得分:0)
使用pom.xml
更新scala 2.11.8
。
有关版本兼容性,请参见spark下载文档。