使用scala

时间:2018-06-01 10:12:11

标签: scala hbase spark-streaming

我正在尝试实现spark流媒体,以便将kafka主题添加到hbase。当我在scala eclipse中使用Maven实现时,我遇到了下面的问题

我导入了以下行  " import org.apache.hadoop.hbase。{HBaseConfiguration,HTableDescriptor,HColumnDescriptor}"

val hConf = new HBaseConfiguration()

直到这一点没有错误,但是当我尝试设置如下面的Config属性时,在下一行

hConf.set(" hbase.zookeeper.quorum"," localhost:2182")

我收到错误"值集不是org.apache.hadoop.hbase.HBaseConfiguration"

的成员

我只是按照上面的链接

https://acadgild.com/blog/building-a-real-time-application-using-kafka-and-spark

实施此

您能否告诉我如何解决此错误。

此致 Sudheer

1 个答案:

答案 0 :(得分:0)

已解决:由于我在maven中的hadoop jar已损坏。我在“C:\ Users \ user1.m2 \ repository \ org \ apache \ hadoop”下删除了文件。再次重建项目以添加依赖项。然后我可以从hadoop依赖项访问配置....希望它可以帮助某人!