我一直很享受JQ
(Doc)提供的强大过滤器。
Twitter的公共API提供格式良好的json文件。我可以访问大量的内容,并且可以访问Hadoop集群。在那里,我决定不使用Pig
在Elephantbird
中加载它们,而是在mapper流中尝试JQ
以查看它是否更快。
这是我的最终查询:
nohup hadoop jar $HADOOP_HOME/share/hadoop/tools/lib/hadoop-streaming-2.5.1.jar\
-files $HOME/bin/jq \
-D mapreduce.map.memory.mb=2048\
-D mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec \
-mapper "./jq --raw-output 'select((.lang == \"en\") and (.entities.hashtags | length > 0)) | .entities.hashtags[] as \$tags | [.id_str, .user.id_str, .created_at, \$tags.text] | @csv'" \
-reducer NONE \
-input /path/to/input/*.json.gz \
-output /path/to/output \
&
我将本地jq
可执行文件分发给每个计算节点,并告诉他们使用stdin
流运行我的命令。
查询足够长,以至于我在bash
和JQ
中引用并格式化了问题。
我希望我能写出这样的东西:
nohup hadoop jar $HADOOP_HOME/share/hadoop/tools/lib/hadoop-streaming-2.5.1.jar\
-files $HOME/bin/jq,$PROJECT_DIR/cmd.jq \
-D mapreduce.map.memory.mb=2048\
-D mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec \
-mapper "./jq --raw-output --run-cmd-file=cmd.jq" \
-reducer NONE \
-input /path/to/input/*.json.gz \
-output /path/to/output \
&
我可以将命令放在一个文件中,将其发送到计算节点并使用选项调用它。
答案 0 :(得分:1)
看起来你错过了-f FILE
选项!