在sbt - spark build问题中设置当前项目

时间:2017-11-23 18:45:37

标签: apache-spark build sbt apache-spark-2.0 sbt-buildinfo

我在尝试构建火花时遇到错误Set current project to spark-parent (in build file:/C:/cygwin64/spark-current/spark-2.1.1/)。有没有选择" -Dcurrent"或者我可以设置一些sbt开关来促进这个或者我是否需要触摸构建文件?我的环境变量位于%SPARK_HOME%的正确位置,因此不是问题所在。我也在使用Windows系统,但我正在使用cygwin。

1 个答案:

答案 0 :(得分:0)

所以我的方向错了。我大部分时间都错误地使用了sbt脚本。看一下spark dev工具,我只需要一个额外的参数,比如“build / abt compile”