我正在使用64位Ubuntu 1204上的sbt(#sbt / sbt -Dhadoop.version = 2.2.0)编译spark-1.1.0。我的电脑上已经有几个其他版本的spark(0.9.1和1.0.0)。起初一切正常,但随后我陷入困境(构建过程停止等待">"),如下所示。那么如何将当前项目设置为spark-parent"?谢谢你的帮助!
[warn] Multiple resolvers having different access mechanism configured with same name 'sbt-plugin-releases'. To avoid conflict, Remove duplicate project resolvers (`resolvers`) or rename publishing resolver (`publishTo`).
[info] Loading project definition from /root/spark-1.1.0/project
[info] Set current project to spark-parent (in build file:/root/spark-1.1.0/)
\>
约翰。
答案 0 :(得分:0)
谢谢@huitseeker。
我猜这个问题是由于我的机器上有多个版本的spark。所以我在Ubuntu#1404#中使用了另一台机器并进行了清理平板编译。这次我使用了maven(#mvn -Dhadoop.version = 2.2.0 -DskipTests clean package),一切似乎都没问题。
请注意,(i)由于网络问题,您可能会多次重新启动编译; (ii)在编辑之前,您可能需要删除文件夹"〜/ .m2"以防止以前编辑的干扰。
欢呼声,
约翰