无法在spark包HBaseContext中找到类

时间:2015-12-28 18:18:14

标签: apache-spark hbase

我正在尝试通过spark使用“HBaseContext”,但不能详细说明所有细节都空白

[https://hbase.apache.org/apidocs/org/apache/hadoop/hbase/spark/example/hbasecontext/][1]

我正在尝试实现这里解释的一些方法 http://blog.cloudera.com/blog/2015/08/apache-spark-comes-to-apache-hbase-with-hbase-spark-module/

任何人都可以帮助谁实施了这些

1 个答案:

答案 0 :(得分:5)

虽然HBaseContext已在HBase参考指南中实施并记录,但作者/社区尚未发布,您可以从此链接HBaseContext Commit History看到,社区最近仍在处理它(没有长期更新项目SparkOnHBase,对于HBase的任何下载版本,根本不包含hbase-spark模块。

对于初学者来说这是一个很大的混乱,希望社区可以改进它,从Spark RDD访问HBase,你可以认为它是普通的Hadoop DataSource,HBase确实为此提供了TableInputFormat和TableOutputFormat。