Hadoop Pig加入Hbase的数据

时间:2014-01-15 10:29:04

标签: hbase apache-pig

我正在尝试将来自文本文件的数据与来自hbase的数据连接,但是失败了。

这是我使用的数据。

  1. C:(XXX1,06820,7)     (XXX2,07442,9)
  2. G1:(XXX1,53)     (XXX2,54)
  3. G2:(XXX1,53)     (XXX1,53)
  4. G1是来自文本文件的加载,G2是从HBase加载的。

    • G1:{sn:bytearray,country:chararray}
    • G2:{sn:bytearray,country:chararray}
    • J1 =通过sn加入C,通过sn加入
    • J2 =通过sn加入C,通过sn加入C.

    当转储J1时我可以得到结果,但对于J2我没有得到任何东西,这里是日志。

    Successfully read records from: "/opt/inputdata/ips1"
    Successfully read records from: "hbase://geoinfo1"
    
    Output(s):
    Successfully stored records in: "file:/tmp/temp410352744/tmp-403556508" -- EMPTY FILE
    
    Successfully read 616 records (11473 bytes) from: "/opt/inputdata/ips1"
    Successfully read 1354204 records from: "hbase://geoinfo"
    
    Output(s):
    Successfully stored 0 records in: "hdfs://master:9000/user/hadoop/jjj" --- EMPTY FILE
    

    我的解决方案有什么问题吗?如果我想从hbase加载数据并加入文本文件中的数据,我该怎么办?

    提前致谢。

1 个答案:

答案 0 :(得分:0)

我假设您已将数据加载到Hbase中然后在 grunt shell提示符下使用以下猪脚本

使用HBaseStorage存储的pig脚本:

G1 = LOAD'hbase:// geoinfo1'USING org.apache.pig.backend.hadoop.hbase.HBaseStorage('column_family_name:*',' - loadKey true -gt 10000')AS(sn:chararray,country :chararray);