在Reducer中查找最常用的键,错误:java.lang.ArrayIndexOutOfBoundsException:1

时间:2016-03-25 12:45:20

标签: java hadoop mapreduce reduce

我需要在Reducer中找到Mapper发出的最常用键。我的减速机以这种方式工作正常:

public static class MyReducer extends Reducer<NullWritable, Text, NullWritable, Text> {
    private Text result = new Text();
    private TreeMap<Double, Text> k_closest_points= new TreeMap<Double, Text>();
    public void reduce(NullWritable key, Iterable<Text> values, Context context)
            throws IOException, InterruptedException {

        Configuration conf = context.getConfiguration();
        int K = Integer.parseInt(conf.get("K"));
        for (Text value : values) {
            String v[] = value.toString().split("@");    //format of value from mapper: "Key@1.2345"
            double distance = Double.parseDouble(v[1]);
            k_closest_points.put(distance, new Text(value));    //finds the K smallest distances
            if (k_closest_points.size() > K)
                k_closest_points.remove(k_closest_points.lastKey());
        }
        for (Text t : k_closest_points.values())    //it perfectly emits the K smallest distances and keys
            context.write(NullWritable.get(), t);
    }
}

它找到距离最小的K实例并写入输出文件。但我需要在TreeMap中找到最常用的密钥。所以我在尝试如下:

public static class MyReducer extends Reducer<NullWritable, Text, NullWritable, Text> {
    private Text result = new Text();
    private TreeMap<Double, Text> k_closest_points = new TreeMap<Double, Text>();

    public void reduce(NullWritable key, Iterable<Text> values, Context context)
            throws IOException, InterruptedException {

        Configuration conf = context.getConfiguration();
        int K = Integer.parseInt(conf.get("K"));
        for (Text value : values) {
            String v[] = value.toString().split("@");
            double distance = Double.parseDouble(v[1]);
            k_closest_points.put(distance, new Text(value));
            if (k_closest_points.size() > K)
                k_closest_points.remove(k_closest_points.lastKey());
        }
        TreeMap<String, Integer> class_counts = new TreeMap<String, Integer>();
        for (Text value : k_closest_points.values()) {
            String[] tmp = value.toString().split("@");
            if (class_counts.containsKey(tmp[0]))
                class_counts.put(tmp[0], class_counts.get(tmp[0] + 1));
            else
                class_counts.put(tmp[0], 1);
        }
        context.write(NullWritable.get(), new Text(class_counts.lastKey()));
    }
}

然后我收到此错误:

Error: java.lang.ArrayIndexOutOfBoundsException: 1
        at KNN$MyReducer.reduce(KNN.java:108)
        at KNN$MyReducer.reduce(KNN.java:98)
        at org.apache.hadoop.mapreduce.Reducer.run(Reducer.java:171)

你能帮我解决这个问题吗?

1 个答案:

答案 0 :(得分:1)

一些事情......首先,你的问题在这里:

double distance = Double.parseDouble(v[1]);

你在"@"分裂,它可能不在字符串中。如果不是,则会抛出OutOfBoundsException。我会添加一个如下的条款:

if(v.length < 2)
    continue;

第二个(除非我疯了,否则甚至不应该编译),tmpString[],但实际上你只是在'1'连接它put操作(这是一个括号问题):

class_counts.put(tmp[0], class_counts.get(tmp[0] + 1));

应该是:

class_counts.put(tmp[0], class_counts.get(tmp[0]) + 1);

在可能较大的Map中查看密钥两次也很昂贵。这是我根据你给我们的东西重新编写你的减速机的方法(这是完全未经测试的):

public static class MyReducer extends Reducer<NullWritable, Text, NullWritable, Text> {
    private Text result = new Text();
    private TreeMap<Double, Text> k_closest_points = new TreeMap<Double, Text>();

    public void reduce(NullWritable key, Iterable<Text> values, Context context)
            throws IOException, InterruptedException {

        Configuration conf = context.getConfiguration();
        int K = Integer.parseInt(conf.get("K"));

        for (Text value : values) {
            String v[] = value.toString().split("@");
            if(v.length < 2)
                continue; // consider adding an enum counter

            double distance = Double.parseDouble(v[1]);
            k_closest_points.put(distance, new Text(v[0])); // you've already split once, why do it again later?

            if (k_closest_points.size() > K)
                k_closest_points.remove(k_closest_points.lastKey());
        }


        // exit early if nothing found
        if(k_closest_points.isEmpty())
            return;


        TreeMap<String, Integer> class_counts = new TreeMap<String, Integer>();
        for (Text value : k_closest_points.values()) {
            String tmp = value.toString();
            Integer current_count = class_counts.get(tmp);

            if (null != current_count) // avoid second lookup
                class_counts.put(tmp, current_count + 1);
            else
                class_counts.put(tmp, 1);
        }

        context.write(NullWritable.get(), new Text(class_counts.lastKey()));
    }
}

接下来,从语义上讲,您使用TreeMap作为您选择的数据结构执行KNN操作。虽然这有意义,因为它在内部以比较顺序存储密钥,但使用Map进行几乎无疑需要打破关系的操作是没有意义的。原因如下:

int k = 2;
TreeMap<Double, Text> map = new TreeMap<>();
map.put(1.0, new Text("close"));
map.put(1.0, new Text("equally close"));
map.put(1500.0, new Text("super far"));
// ... your popping logic...

您保留的最近点是哪两个? "equally close""super far"。这是因为您不能拥有相同密钥的两个实例。因此,您的算法无法打破关系。您可以采取一些措施来解决这个问题:

首先,如果您已开始在Reducer中执行此操作并且知道您的传入数据将不会导致OutOfMemoryError ,考虑使用不同的排序结构,如TreeSet,并构建一个将要排序的自定义Comparable对象:

static class KNNEntry implements Comparable<KNNEntry> {
    final Text text;
    final Double dist;

    KNNEntry(Text text, Double dist) {
        this.text = text;
        this.dist = dist;
    }

    @Override
    public int compareTo(KNNEntry other) {
        int comp = this.dist.compareTo(other.dist);
        if(0 == comp)
            return this.text.compareTo(other.text);
        return comp;
    }
}

然后使用TreeMap代替您的TreeSet<KNNEntry>,它将根据我们刚刚构建的Comparator逻辑在内部对自身进行排序。然后在完成所有键后,只需遍历第一个k,按顺序保留它们。但是这有一个缺点:如果你的数据真的很大,你可以通过将reducer中的所有值加载到内存中来溢出堆空间。

第二个选项:将我们上面构建的KNNEntry实施WritableComparable,然后从Mapper发出,然后使用secondary sorting来处理您的条目的排序。这会变得有点毛茸茸,因为你必须使用大量的映射器,然后只需要一个reducer来捕获第一个k。如果您的数据足够小,请尝试第一个选项以允许打破平局。

但是,回到原来的问题,你得到的是OutOfBoundsException,因为您尝试访问的索引不存在,即输入String中没有“@” 。