在Hadoop中获取WordCount程序中的异常

时间:2013-04-14 19:16:23

标签: java hadoop mapreduce word-count mapper

尝试在hadoop上运行第一个程序时,我遇到了这个异常。 (我在版本0.20.2上使用hadoop新API)。我在网上搜索,当他们没有在配置逻辑中设置MapperClass和ReducerClass时,看起来大多数人都遇到了这个问题。 但我查了一下,看起来代码还可以。如果有人可以帮助我,我将非常感激。

java.io.IOException:键入map中的键不匹配:expected org.apache.hadoop.io.Text,recieved org.apache.hadoop.io.LongWritable 在org.apache.hadoop.mapred.MapTask $ MapOutputBuffer.collect(MapTask.java:871)

package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class WordCountMapper extends Mapper<LongWritable,Text,Text,IntWritable> {

public void Map(LongWritable key,Text value,Context ctx) throws IOException , InterruptedException {
    String line = value.toString();
    for(String word:line.split("\\W+")) {
        if(word.length()> 0){
            ctx.write(new Text(word), new IntWritable(1));
        }
    }
}
}


package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable> {

public void reduce(Text key, Iterable<IntWritable> values, Context ctx) throws IOException,InterruptedException {
 int wordCount = 0;
    for(IntWritable value:values)
    {
        wordCount+=value.get();
    }
    ctx.write(key,new IntWritable(wordCount));
}

}


package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class WordCountJob {
public static void main(String args[]) throws IOException, InterruptedException, ClassNotFoundException{
    if(args.length!=2){
        System.out.println("invalid usage");
        System.exit(-1);
    }

    Job job = new Job();
    job.setJarByClass(WordCountJob.class);
    job.setJobName("WordCountJob");



    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));

    job.setMapperClass(WordCountMapper.class);
    job.setReducerClass(WordCountReducer.class);

    //job.setCombinerClass(WordCountReducer.class);

    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(IntWritable.class);

    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);


    System.exit(job.waitForCompletion(true) ? 0:1);

}
}

2 个答案:

答案 0 :(得分:0)

由于您使用大写字母M代替小写字母m,因此Map()方法无法覆盖Mapper的{​​{1}}方法。

因此,正在使用默认的身份映射方法,这导致用作输入的相同键和值对也用作输出。由于您的映射器已指定map(),因此您尝试输出extends Mapper<LongWritable,Text,Text,IntWritable>而不是LongWritable, Text会导致异常。

Text, IntWritable方法更改为Map()并添加map()注释应该可以解决问题 - 如果您使用的是IDE,我强烈建议使用它的内置方法覆盖功能避免这样的错误。

答案 1 :(得分:0)

只需从

编辑您的映射器功能

public void 地图 (LongWritable键,文字值,上下文ctx)

public void 地图 (LongWritable键,文字值,上下文ctx)

这对我有用。

Hadoop版本: - Hadoop 1.0.3