使用sbt在Spark中构建子项目

时间:2017-10-29 20:47:25

标签: scala apache-spark build sbt

我想用sbt在Spark中构建子项目。我找到了这个例子并且它可以工作

$ ./build/sbt -Phive -Phive-thriftserver  (build)
sbt (spark)> project hive (switch to subproject)
sbt (hive)> testOnly *.HiveQuerySuite -- -t foo ( run test case)

然而,我尝试了以下但是它没有构建但是退出了 ./build/sbt -mllib

我不知道作者如何找出-Phive -Phive-thriftserver。我在Spark源代码中找不到这个。

我只想做与示例完全相同的事情,但使用不同的子项目。

这不是询问如何使用projects打印出所有可用的项目。

1 个答案:

答案 0 :(得分:1)

指定项目范围:

./build/sbt mllib/compile

请参阅:http://www.scala-sbt.org/0.13/docs/Scopes.html