如何将spark工件部署到自定义maven存储库?

时间:2017-05-30 15:26:45

标签: apache-spark

我在github上有一个apache spark的分支。 我有一个maven存储库,我们公司用它来管理依赖项。 假设此maven存储库的URL为https://xyz.abc.com/maven。 如果我运行像

这样的命令
./build/mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.5 -DskipTests install

然后所有的jar都被部署到我的本地maven存储库,但我真正想要的是将它们部署到上面提到的存储库中。 我怎样才能做到这一点?我是否需要修改某些文件或设置环境变量?我是否需要在某处添加凭据文件? 我也考虑过用sbt来做这件事,但我也无法弄清楚如何做到这一点。

1 个答案:

答案 0 :(得分:1)

您希望通过maven将publish工件构建到远程存储库(https://xyz.abc.com/maven)。

请查看this guide以了解所需的配置。