我想用sbt在Spark中构建子项目。我找到了这个例子并且它可以工作
$ ./build/sbt -Phive -Phive-thriftserver (build)
sbt (spark)> project hive (switch to subproject)
sbt (hive)> testOnly *.HiveQuerySuite -- -t foo ( run test case)
然而,我尝试了以下但是它没有构建但是退出了
./build/sbt -mllib
我不知道作者如何找出-Phive -Phive-thriftserver
。我在Spark源代码中找不到这个。
我只想做与示例完全相同的事情,但使用不同的子项目。
这不是询问如何使用projects
打印出所有可用的项目。
答案 0 :(得分:1)