spark的例子不能在intellij中构建

时间:2017-02-20 02:17:15

标签: scala apache-spark

我按照某人的教程编译spark 2.1.0并在intellij IDEA 2016.3.4(scala 2.11.8)中运行其中一个示例,这是我的步骤:

  1. 从git(win 10 64bit)下载spark 2.1.0
  2. 我使用cygwin中的“$ build / mvn -T 4 -DskipTests clean package”构建它
  3. 在intellij中打开项目
  4. 将spark-streaming-flume-sink_2.11的目标目录标记为Sources,以及其子目录\ target \ scala-2.11 \ src_managed \ main \ compiled_avro \ org \ apache \ spark \ streaming \ flume \ sink
  5. 添加{spark dir} /spark/assembly/target/scala-2.11/jars / * .jars as spark-examples_2.11的依赖
  6. 但是当我构建spark项目时,这里是错误消息: enter image description here

    即使我删除了这个测试类SparkSinkSuite,类似的错误“对象xx不是包xx的成员”发生在其他类中(我发现所有问题类都在'外部'模块中) 我试过重启intellij甚至计算机,它没有帮助。

0 个答案:

没有答案