我正在尝试实现spark流媒体,以便将kafka主题添加到hbase。当我在scala eclipse中使用Maven实现时,我遇到了下面的问题
我导入了以下行 " import org.apache.hadoop.hbase。{HBaseConfiguration,HTableDescriptor,HColumnDescriptor}"
val hConf = new HBaseConfiguration()
直到这一点没有错误,但是当我尝试设置如下面的Config属性时,在下一行
hConf.set(" hbase.zookeeper.quorum"," localhost:2182")
我收到错误"值集不是org.apache.hadoop.hbase.HBaseConfiguration"
的成员我只是按照上面的链接
https://acadgild.com/blog/building-a-real-time-application-using-kafka-and-spark
实施此
您能否告诉我如何解决此错误。
此致 Sudheer
答案 0 :(得分:0)
已解决:由于我在maven中的hadoop jar已损坏。我在“C:\ Users \ user1.m2 \ repository \ org \ apache \ hadoop”下删除了文件。再次重建项目以添加依赖项。然后我可以从hadoop依赖项访问配置....希望它可以帮助某人!