我从Git下载Spark1.2.0代码库,并将其作为Maven项目导入Intellij Idea。 然后我在Maven Projects视图中对根模块进行Maven Install。
经过长时间的构建,所有模块都已成功构建。但是当我在IntellijIdea中运行LocalPi时,编译错误开始出现: 1.不会生成EventBatch和SparkFlumeProtocol类,它们应该在 org.apache.spark.streaming.flume.sink包。 2. CodeGenerator.scala中有一些错误,抱怨q是StringContext的成员。
我已经花了很多时间来解决这些问题,但没有运气。
答案 0 :(得分:0)
尝试点击"为所有项目生成源和更新文件夹" " Maven Projects"中的按钮用于手动生成这些源的工具窗口。
查看 - >工具Windows - > Maven项目
您也可以右键单击Spark Project External Flume Sink,然后单击Generate Sources and Update Folders。