我有大约12,000个文件的集合,这些文档不适合内存,因此我使用以下代码以块的形式阅读:
pipeline = [
{ "$project": {"_id":0, "leagues":1, "matches":1, "nick":1, "ranked_stats":1,"sum_id":1 } },
{ "$skip": skip },
{ "$limit": limit }
]
query = db['summoners'].aggregate(pipeline)
在Pymongo上运行1000个文件的每个块需要90秒,即使在Robomongo(或mongodb shell)上花费大约0.1秒。我在这里错过了什么吗?
编辑:我已经尝试使用.find()和.limit(),花费的时间与使用.aggregate()几乎相同,大约是~0,09秒/文件