在Hadoop流中断了python管道

时间:2012-07-05 12:32:45

标签: python hadoop streaming subprocess pipeline

我有一个大规模的日志处理问题,我必须在hadoop集群上运行。任务是将日志的每一行都送入可执行文件“cmd”并检查结果以决定是否保留这行日志。

由于“cmd”程序打开一个非常大的字典,我无法负责为日志的每一行调用该程序。我想让它继续运行并向其提供所需的输入。我当前的解决方案使用python的子进程模块,这里是代码:

import sys
from subprocess import Popen, PIPE

def main():
    pp = Popen('./bqc/bqc/bqc_tool ./bqc/bqc/bqc_dict/ ./bqc/bqc/word_dict/ flag', shell=True, stdin=PIPE, stdout=PIPE, stderr=PIPE)

    for line in sys.stdin:
        lstr = line.strip().split('\t')
        if len(lstr) != 7:
            continue
        pp.stdin.write('%s\n' % lstr[5])
        pp.stdin.flush()
        out = pp.stdout.readline()
        lout = out.strip().split('\t')
        if len(lout) == 3 and lout[1] == '401':
            print line.strip()

if __name__ == '__main__':
    main()

以上代码在我的本地计算机上测试时可以找到。 在将作业提交给hadoop时,它用作映射器。我没有使用reducer,以下是配置。

hadoop streaming \
-input /path_to_input \
-output /path_to_output \
-mapper  "python/python2.7/bin/python27.sh ./mapper.py" \
-cacheArchive /path_to_python/python272.tar.gz#python \
-cacheArchive /path_to_cmd/bqc.tar.gz#bqc \
-file ./mapper.py \
-jobconf mapred.job.name="JobName" \
-jobconf mapred.job.priority=HIGH

bqc.tar.gz中的文件如下所示:

bqc/
bqc/bqc_tool
bqc/bqc_dict/
bqc/word_dict/

在我看来,“-cacheArchive /path_to_cmd/bqc.tar.gz#bqc \”这一行应该提取tar文件并将其解压缩到名为bqc的文件夹中。

但是当提交给hadoop集群时它失败并显示以下错误消息:

    Traceback (most recent call last):
      File "./mapper.py", line 19, in
        main()
      File "./mapper.py", line 11, in main
        pp.stdin.write('%s\n' % lstr[5])
    IOError: [Errno 32] Broken pipe
    java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 1
        at org.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:335)
        at org.apache.hadoop.streaming.PipeMapRed.mapRedFinished(PipeMapRed.java:590)
        at org.apache.hadoop.streaming.PipeMapper.map(PipeMapper.java:152)
        at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:54)
        at org.apache.hadoop.streaming.PipeMapRunner.run(PipeMapRunner.java:18)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:388)
        at org.apache.hadoop.mapred.Child.main(Child.java:194)
    java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 1
        at org.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:335)
        at org.apache.hadoop.streaming.PipeMapRed.mapRedFinished(PipeMapRed.java:590)
        at org.apache.hadoop.streaming.PipeMapper.close(PipeMapper.java:163)
        at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:61)
        at org.apache.hadoop.streaming.PipeMapRunner.run(PipeMapRunner.java:18)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:388)
        at org.apache.hadoop.mapred.Child.main(Child.java:194)

有人有个主意吗?任何帮助将不胜感激!

谢谢!

扎卡里

1 个答案:

答案 0 :(得分:2)

神秘解决了!应该是由于hadoop强加的内存限制导致命令无法成功加载。该命令需要大约2G内存,hadoop配置为允许每个节点大约800MB。