MongoDB MapReduce比纯Java处理慢得多?

时间:2010-12-13 15:26:54

标签: java performance mongodb mapreduce

我想要计算我的文档(包括嵌入式文档)的所有关键字。 首先我写了一个Java客户端来解决这个问题。显示结果只需不到4秒钟。 然后我写了一个map / reduce函数。结果很好,但运行该功能花了30多秒! 我认为map / reduce函数会更快,因为它是在服务器端执行的。 Java客户端需要从服务器获取每个文档,但速度要快得多。 为什么会这样?

//这是我的地图功能:

map = function(){
    for(var key in this) {
      emit(key, {count:1});
      if(isNestedObject(this[key])){
        m_sub(key, this[key]);
      }
    }
}

//这是我的reduce函数:

reduce = function (key, emits) {
    total = 0;
    for (var i in emits) {
        total += emits[i].count;
    }
    return {count:total};
}

//这是对mapreduce的调用:

mr = db.runCommand({"mapreduce":"keyword", "map" : map, "reduce" : reduce, 
    "scope":{
        isNestedObject : function (v) {
            return v && typeof v === "object";
        },
        m_sub : function(base, value) {
            for(var key in value) {
              emit(base + "." + key, {count:1});
              if(isNestedObject(value[key])){
                m_sub(base + "." + key, value[key]);
              }
            }
        }
    }
})

//这是输出:

{
 "result" : "tmp.mr.mapreduce_1292252775_8",
 "timeMillis" : 39087,
 "counts" : {
  "input" : 20168,
  "emit" : 986908,
  "output" : 1934
 },
 "ok" : 1
}

//这是我的Java客户端:

public static Set<String> recursiv(DBObject o){

        Set<String> keysIn = o.keySet();
        Set<String> keysOut = new HashSet<String>();
        for(String s : keysIn){
            Set<String> keys2 = new HashSet<String>();
            if(o.get(s).getClass().getSimpleName().contains("Object")){
                DBObject o2 = (DBObject) o.get(s);
                keys2 = recursiv(o2);
                for(String s2 : keys2){
                    keysOut.add(s + "." + s2);
                }   
            }else{
                keysOut.add(s);
            } 
        }
        return keysOut;     
    }

    public static void main(String[] args) throws Exception {

        final Mongo mongo =  new Mongo("xxx.xxx.xxx.xxx");
        final DB db = mongo.getDB("keywords");
        final DBCollection keywordTable = db.getCollection("keyword");
        Multiset<String> count = HashMultiset.create();

        long start = System.currentTimeMillis();

        DBCursor curs = keywordTable.find();    
        while(curs.hasNext()){
            DBObject o = curs.next();
            Set<String> keys = recursiv(o);
            for(String s : keys){
                count.add(s);
            }
        }

        long end = System.currentTimeMillis();
        long duration = end - start;

        System.out.println(new SimpleDateFormat("mm:ss:SS").format(Long.valueOf(duration)));              
        System.out.println("duration:" + duration + " ms");
        //System.out.println(count);
        System.out.println(count.elementSet().size());

    }

//这是输出:

00:03:726
duration:3726 ms
1898

不要担心结果的数量不同(1934年与1898年)。这是因为map reduce也计算了数组中的键,这些键不是由java客户端计算的。 感谢您了解不同的执行时间。

3 个答案:

答案 0 :(得分:9)

这不是一个很好的答案,但在o'reilly mongo书中,kristina说地图缩减查询是你能做的最慢的事情之一,但它们也是最灵活,最具伸缩性的。 Mongo将能够拆分查询并处理所有节点的处理能力,这意味着您应该为添加的每个节点获得线性可伸缩性。但是在单个节点上,即使按查询分组也会比map reduce更快。

答案 1 :(得分:5)

另一个原因是mongodb的javascript引擎存在问题,只允许他们使用一个单独的线程。 Mongodb计划改用google的v8 javascript引擎,希望mongodb能够处理map / reduce多线程。请参阅http://www.mongodb.org/display/DOCS/MapReduce#MapReduce-Parallelismhttps://jira.mongodb.org/browse/SERVER-2407

答案 2 :(得分:1)

如果可以,您应该查看聚合框架命令。不像MapReduce那么灵活,但性能令人印象深刻。我用它将大量的馆藏数据汇总成小时,每日,每月的摘要,在我们的情况下,MapReduce的性能比率超过1到50。

我们选择了具有相同结构的分段集合的设计,这允许我们运行小而多的聚合作业,聚合命令的管道概念非常有效。

我还发现$ group命令非常高效,但是对大小和分片的限制限制了它的使用。