使用IntelliJ Idea构建Spark1.2.0代码库

时间:2015-01-12 05:11:56

标签: intellij-idea apache-spark

我从Git下载Spark1.2.0代码库,并将其作为Maven项目导入Intellij Idea。 然后我在Maven Projects视图中对根模块进行Maven Install。

经过长时间的构建,所有模块都已成功构建。但是当我在IntellijIdea中运行LocalPi时,编译错误开始出现: 1.不会生成EventBatch和SparkFlumeProtocol类,它们应该在 org.apache.spark.streaming.flume.sink包。 2. CodeGenerator.scala中有一些错误,抱怨q是StringContext的成员。

我已经花了很多时间来解决这些问题,但没有运气。

1 个答案:

答案 0 :(得分:0)

尝试点击"为所有项目生成源和更新文件夹" " Maven Projects"中的按钮用于手动生成这些源的工具窗口。

查看 - >工具Windows - > Maven项目

您也可以右键单击Spark Project External Flume Sink,然后单击Generate Sources and Update Folders。