Apache PIG,JSON Loader

时间:2017-02-04 12:41:54

标签: json hadoop apache-pig hadoop2

这是我的示例输入文件:

[{"disknum":36,"disksum":136.401,"disk_rate":1872.0,"disk_lnum": 13}]
[{"disknum":36,"disksum":105.2,"disk_rate":123084.8,"disk_lnum": 13}]

我正在尝试使用PIG中的JsonLoader解析此JSON数据,

这是我的剧本:

a = LOAD '/pig/tc.log' using JsonLoader ('disknum:chararray,disksum:chararray,disk_rate:chararray,disk_lnum:chararray');

b = FOREACH a GENERATE disknum,disksum,disk_rate,disk_lnum;

DUMP b;

预期输出:

  

36,136.401,1872.0,13

     

36,105.2,123084.8,13

实际输出:

  

()

请帮帮我!我错过了什么?

2 个答案:

答案 0 :(得分:0)

您的输入数据是JSON数组,这就是Pig的JsonLoader无法读取它的原因。 如果可能,请删除数组(如下所示)或查看Load JSON array into Pig。你应该能够找出基本原则。

{"disknum":36,"disksum":136.401,"disk_rate":1872.0,"disk_lnum": 13}
{"disknum":36,"disksum":105.2,"disk_rate":123084.8,"disk_lnum": 13}

答案 1 :(得分:0)

注意文件中对象周围的[]。您可以将其加载到地图并访问字段或使用ElephantBird jsonloader。

a = LOAD '/pig/tc.log' using JsonLoader(json:map[]);
b = FOREACH a GENERATE flatten(json#'disknum') AS disknum,
                       flatten(json#'disksum') AS disksum,
                       flatten(json#'disk_rate') AS disk_rate,
                       flatten(json#'disk_lnum') AS disk_lnum;      
DUMP b;