你能解释一下map reduce程序吗?例如,在字数统计中,类中的类是innerclass。你能逐步解释这个程序吗?尖括号是什么意思。为什么我们也在编写输出参数。什么是上下文对象。像这样你可以一步一步地解释这个程序。我知道逻辑,但我无法理解很少的Java语句
public class WordCount {
public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
String line = value.toString();
StringTokenizer tokenizer = new StringTokenizer(line);
while (tokenizer.hasMoreTokens()) {
word.set(tokenizer.nextToken());
context.write(word, one);
}
}
}
public static class Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {
public void reduce(Text key, Iterable<IntWritable> values, Context context)
throws IOException, InterruptedException {
int sum = 0;
for (IntWritable val : values) {
sum += val.get();
}
context.write(key, new IntWritable(sum));
}
}
public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();
Job job = new Job(conf, "wordcount");
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setMapperClass(Map.class);
job.setReducerClass(Reduce.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
job.waitForCompletion(true);
}
}
答案 0 :(得分:2)
答案 1 :(得分:0)
您的Map类扩展了Hadoop的Mapper类,其中提到了输入和输出参数的泛型。 前2个参数是输入键值,而后2个参数是输出键值。 Mapper类需要重写map()方法。您的映射器逻辑在这里。 此方法接受指定的Input参数,并返回void并将键值对写入Context(内存)。
您的Reduce类扩展了Reducer类。 Reducer的输入应与Mapper / Combiner的输出键值匹配。 Reducer类需要重写reduce()方法。您的减速器逻辑在这里。 此方法接受指定的Input参数并返回void,并从Context(内存)中读取键值对。
Hadoop在这两种方法之间执行组合器,排序,混洗操作。
您的主要方法包含代码设置Hadoop作业。
更多澄清。 macalester.edu和 javacodegeeks