我有hadoop运行,基本上只是聚合键,它的代码: (mapper是身份映射器)
public void reduce(Text key, Iterator<Text> values,
OutputCollector<Text, Text> results, Reporter reporter) throws IOException {
String res = new String("");
while(values.hasNext())
{
res += values.next().toString();
}
Text outputValue = new Text("<all><id>"+key.toString()+"</id>"+res+"</all>");
results.collect(key, outputValue);
}
它停留在这个水平:
12/11/26 06:19:23 INFO mapred.JobClient: Running job: job_201210240845_0099
12/11/26 06:19:24 INFO mapred.JobClient: map 0% reduce 0%
12/11/26 06:19:37 INFO mapred.JobClient: map 20% reduce 0%
12/11/26 06:19:40 INFO mapred.JobClient: map 80% reduce 0%
12/11/26 06:19:41 INFO mapred.JobClient: map 100% reduce 0%
12/11/26 06:19:46 INFO mapred.JobClient: map 100% reduce 6%
12/11/26 06:19:55 INFO mapred.JobClient: map 100% reduce 66%
我在本地运行并看到了这个:
12/11/26 06:06:48 INFO mapred.LocalJobRunner:
12/11/26 06:06:48 INFO mapred.Merger: Merging 5 sorted segments
12/11/26 06:06:48 INFO mapred.Merger: Down to the last merge-pass, with 5 segments left of total size: 82159206 bytes
12/11/26 06:06:48 INFO mapred.LocalJobRunner:
12/11/26 06:06:54 INFO mapred.LocalJobRunner: reduce > reduce
12/11/26 06:06:55 INFO mapred.JobClient: map 100% reduce 66%
12/11/26 06:06:57 INFO mapred.LocalJobRunner: reduce > reduce
12/11/26 06:07:00 INFO mapred.LocalJobRunner: reduce > reduce
12/11/26 06:07:03 INFO mapred.LocalJobRunner: reduce > reduce
...
a lot of reduce > reduce ...
...
最后,它完成了工作。我想问一下:
1)它在此减少中做了什么&gt;减少阶段?
2)我怎样才能改善这一点?
答案 0 :(得分:11)
当查看百分比时,0-33%是洗牌,34%-65%是排序,66%-100%是实际减少功能。
你的代码中的一切看起来都很好,但是我会在黑暗中捅一下:
您正在反复创建并重新创建字符串res
。每次获得新值时,Java都会创建一个新的字符串对象,然后创建另一个字符串对象来保存连接。正如您所看到的,当字符串变得非常大时,这可能会失控。请尝试使用StringBuffer
代替。修改:StringBuilder
优于StringBuffer
。
无论这是否是问题,您都应该更改此项以提高性能。
答案 1 :(得分:3)
使用StringBuilder解决它。它将运行时间从30分钟提高到30秒。我认为它不会产生这样的影响。非常感谢。