我尝试使用sbt从Spark / Scala中使用HBase,然后使用instructions我用1.2.1替换版本。但是,似乎我的机器无法解析依赖关系。
以下是我的.sbt / repositories文件:
[repositories]
local
sbt-releases-repo: http://repo.typesafe.com/typesafe/ivy-releases/, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]
sbt-plugins-repo: http://repo.scala-sbt.org/scalasbt/sbt-plugin-releases/, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]
maven-central: http://repo1.maven.org/maven2/
concurrent-maven: http://conjars.org/repo/
我使用的是IntelliJ,它告诉我HBase仍然是一个未解决的依赖项,当我输入org.apache.hadoop.
时,我不会看到hbase,这应该出现在列表中。
我错过了回购或解析吗?
答案 0 :(得分:0)
我明白了:如果你可以使用其中一个CHD或HDP版本,在我的情况下工作得很好,因为我们使用HDP,那么你只需要将回购添加为here。
然后在build.sbt
中使用您的Hadoop发行版中的版本。如果您碰巧使用香草HBase,那么您可能必须发布到您当地的仓库。我虽然没有选择这个。
是的,我是对的:这些库位于org.apache.hadoop.hbase
。