使用计数预先分配记录

时间:2016-03-02 22:17:02

标签: javascript node.js mongodb mongodb-query pre-allocation

我已经读过,预先分配记录可以提高性能,这在处理时间序列数据集的许多记录时尤其有用。

updateRefLog = function(_ref,year,month,day){
    var id = _ref,"|"+year+"|"+month;
    db.collection('ref_history').count({"_id":id},function(err,count){
        // pre-allocate if needed
        if(count < 1){
            db.collection('ref_history').insert({
                "_id":id
                ,"dates":[{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0},{"count":0}]
            });
        }

        // update
        var update={"$inc":inc['dates.'+day+'.count'] = 1;};
        db.collection('ref_history').update({"_id":id},update,{upsert: true},
            function(err, res){
                if(err !== null){
                    //handle error
                }
            }
        );
    });
};

我有点担心必须通过一个承诺可能会减慢它的速度,并且每次检查计数都会否定预分配记录的性能优势。

是否有更高效的方法来处理这个问题?

1 个答案:

答案 0 :(得分:1)

“预分配”的一般声明是关于导致文档“增长”的“更新”操作的潜在成本。如果这导致文档大小大于当前分配的空间,则文档将“移动”到磁盘上的另一个位置以容纳新空间。这可能代价高昂,因此一般建议首先将文档写入适合其最终“大小”的文档。

老实说,处理这样一个操作的最好方法是在最初分配所有数组元素时进行“upsert”,然后只更新所需的元素。这将减少为“两个”潜在写入,您可以使用批量API方法进一步减少到单个“线上”操作:

var id = _ref,"|"+year+"|"+month;
var bulk = db.collection('ref_history').initializeOrderedBulkOp();

bulk.find({ "_id": id }).upsert().updateOne({
    "$setOnInsert": {
        "dates": Array.apply(null,Array(32)).map(function(el) { return { "count": 0 }})
   }
});

var update={"$inc":inc['dates.'+day+'.count'] = 1;};
bulk.find({ "_id": id }).updateOne(update);

bulk.execute(function(err,results) {
   // results would show what was modified or not
});

或者由于较新的驱动程序支持彼此的一致性,“批量”部分已经降级为WriteOperations的常规数组:

var update={"$inc":inc['dates.'+day+'.count'] = 1;};

db.collection('ref_history').bulkWrite([
    { "updateOne": {
        "filter": { "_id": id },
        "update": {
            "$setOnInsert": {
                "dates": Array.apply(null,Array(32)).map(function(el) {
                    return { "count": 0 }
                })
            }
        },
        "upsert": true
    }},
    { "updateOne": {
        "filter": { "_id": id },
        "update": update
    }}
],function(err,result) {
    // same thing as above really
});

在任何一种情况下,$setOnInsert作为唯一的块只会在实际发生“upsert”时执行任何操作。主要情况是与服务器的唯一联系将是单个请求和响应,而不是等待网络通信的“来回”操作。

这通常是“批量”操作的用途。当您向服务器发送一批请求时,它们可以减少网络开销。结果显着加快了速度,除了“ordered”之外,其他操作都不依赖于其他操作,后者是后一种情况下的默认设置,并由遗留.initializeOrderedBulkOp()显式设置。

是的,“upsert”中存在“少量”开销,但与使用.count()进行测试并且首先等待该结果相比,“少”。

N.B不确定列表中的32个数组条目。你可能意味着24,但复制/粘贴让你变得更好。无论如何,除了硬编码之外,还有更好的方法可以做到这一点,正如所展示的那样。