-partitioner:找不到类:org.apache.Hadoop.mapred.lib.KeyFieldBasedPartitioner

时间:2017-07-16 16:31:56

标签: python hadoop-streaming mrjob

我正在编写MRjob,并希望基于密钥对我的reducer输出进行分区。  我正在使用这些选项并得到以下错误。如何使用基于keyfield的分区?我需要为此下载一些东西吗?而MRJOB是用python编写的。

Step 1 of 1 failed: Command '['hadoop', 'jar',
   '/usr/lib/hadoop-mapreduce/hadoop-streaming.jar', '-files',
   'hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/abc.py#parsec_status_error_fedactivity.py,hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/setup-wrapper.sh#setup-wrapper.sh',
   '-archives',
   'hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/mrjob.tar.gz#mrjob.tar.gz',
   '-D', 'mapreduce.job.name=abc', '-D', 'mapreduce.job.reduces=2',
   '-D', 'mapreduce.job.split.metainfo.maxsize=-1', '-D',
   'mapreduce.map.failures.maxpercent=1', '-D',
   'mapreduce.map.java.opts=-Xmx1g', '-D',
   'mapreduce.map.memory.mb=2048', '-D',
   'mapreduce.output.fileoutputformat.compress=true', '-D',
   'mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec',
   '-D', 'mapreduce.partition.keypartitioner.options=-k1', '-D',
   'mapreduce.reduce.java.opts=-Xmx2g', '-D',
   'mapreduce.reduce.memory.mb=3072', '-D',
   'mapreduce.reduce.shuffle.input.buffer.percent=0.4', '-D',
   'mapreduce.reduce.shuffle.merge.percent=0.4', '-D',
   'stream.map.input.ignoreKey=true', '-D',
   'stream.num.map.output.key.fields=5', '-libjars',
   '/opt/parsec/lib/correctionlayer2.jar', '-partitioner',
   'org.apache.Hadoop.mapred.lib.KeyFieldBasedPartitioner', '-input',
   'hdfs:////10.134.71.100.1500076800077.gz', '-output',
   'hdfs:///20170715', '-mapper', 'sh -ex setup-wrapper.sh python abc.py
   --step-num=0 --mapper', '-reducer', 'sh -ex setup-wrapper.sh python abc.py --step-num=0 --reducer']' returned non-zero exit status 256de
   here

运行步骤1的1 ...

-partitioner:找不到类:org.apache.Hadoop.mapred.lib.KeyFieldBasedPartitioner

尝试-help获取更多信息

Streaming Command Failed!

1 个答案:

答案 0 :(得分:0)

我不得不在“--partitioner”,“org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner”中使用较小的案例“h”, 它有效,但没有做到这一点。