我有一个拥有0.6百万份文件的藏品。大多数文件的结构如下,
{
"_id" : ObjectId("53d86ef920ba274d5e4c8683"),
"checksum" : "2856caa9490e5c92aedde91330964488",
"content" : "<!DOCTYPE html PUBLIC \"-//W3C//DTD XHTML 1.0 Transitional//EN\" \"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd\">\r\n<html xmlns=\"http://www.w3.org/1999/xhtml\" xml:lang=\"bn-bd\" lang=\"bn-bd\" dir=\"ltr\" " />\n <link rel=\"stylesheet\" href=\"/templates/beez_20/css/position.css\" type=\"text/css\" media=\"screen,projection\ef=\"/index.php/bn/contact-bangla/2013-0</body>\r\n</html>",
"date" : ISODate("2014-07-29T15:57:11.886Z"),
"filtered_content" : "",
"indexed" : true,
"category": 'raw',
"link_extracted" : 1,
"parsed" : true,
"title" : "Constituency 249_10th_En",
"url" : "http://www.somesite.com.bd/index.php/bn/bangla/2014-03-23-11-45-04?layout=edit&id=2143"
}
所有文档都包含 date 属性。现在,当我编写下面的查询时,我会无限期地延迟显示结果。
from pymongo import Connection
import datetime
con = Connection()
db = con.spider
pages = db.pages
today = datetime.datetime.combine( datetime.date.today(), datetime.datetime.min.time() )
c = pages.find({ u'category': 'news', u'date': {u'$gt': today } }, {u'title': 1, '_id': 0} )
for item in c:
print item
索引是,
_id, url, parsed
如何将此查询的性能提升到可接受的时间范围?任何坚实的答案,建议表示赞赏!
答案 0 :(得分:4)
看起来在category
和date
添加索引会有所帮助。
pages.createIndex({'date': 1, 'category': 1});
在pymongo中,the index creation看起来更像是这样:
keys = [
("date", pymongo.ASCENDING),
("category", pymongo.ASCENDING)
]
pages.create_index(keys)
您最感兴趣的选项是:
name: custom name to use for this index - if none is given, a name will be generated
unique: if True creates a unique constraint on the index
但我不希望日期/类别是唯一的。给索引起一个名字似乎是一种很好的做法。